要約
医療画像の分野、特に病気の早期発見と予後に関連するタスクでは、AI モデルの予測の背後にある理論を理解することが、その信頼性を評価するために不可欠です。
従来の説明方法では、特に識別特徴が微妙な場合やすぐには明らかではない場合、医用画像分類における決定的な特徴を特定する際に課題に直面します。
この制限に対処するために、ブラック ボックス モデルに接続すると、異なる決定を促す反事実的な画像を生成できるエージェント モデルを提案します。
このエージェント モデルを採用することで、黒人モデルの最終予測に影響を与える影響力のある画像パターンを明らかにすることができます。
私たちの方法論を通じて、深いブラックボックスの決定に影響を与える特徴を効率的に特定します。
私たちは医療予後タスクの厳密な領域でアプローチを検証し、既存の読影方法と比較して医療画像分類における深層学習モデルの信頼性を高めるその有効性と可能性を示しました。
コードは https://github.com/ayanglab/DiffExplainer で公開されます。
要約(オリジナル)
In the field of medical imaging, particularly in tasks related to early disease detection and prognosis, understanding the reasoning behind AI model predictions is imperative for assessing their reliability. Conventional explanation methods encounter challenges in identifying decisive features in medical image classifications, especially when discriminative features are subtle or not immediately evident. To address this limitation, we propose an agent model capable of generating counterfactual images that prompt different decisions when plugged into a black box model. By employing this agent model, we can uncover influential image patterns that impact the black model’s final predictions. Through our methodology, we efficiently identify features that influence decisions of the deep black box. We validated our approach in the rigorous domain of medical prognosis tasks, showcasing its efficacy and potential to enhance the reliability of deep learning models in medical image classification compared to existing interpretation methods. The code will be publicly available at https://github.com/ayanglab/DiffExplainer.
arxiv情報
著者 | Yingying Fang,Shuang Wu,Zihao Jin,Caiwen Xu,Shiyi Wang,Simon Walsh,Guang Yang |
発行日 | 2024-06-21 14:27:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google