要約
医療画像分析で使用される深層学習モデルは、ブラックボックスの性質があるため、信頼性の懸念を引き起こす傾向があります。
これらのブラックボックスモデルに光を当てるために、これまでの研究は主に、診断への入力機能の寄与、つまり機能の帰属を特定することに焦点を当てています。
この作業では、モデルが診断に依存するパターンを特定するために、反事実的説明を調査します。
具体的には、胸部X線内の特徴の変化が分類器の出力に与える影響を調査し、その決定メカニズムを理解します。
StyleGANベースのアプローチ(StyleEx)を活用して、潜在空間内の特定の潜在方向を操作することにより、胸部X線の反事実的説明を作成します。
さらに、生成された説明の計算時間を大幅に短縮するために、EigenFindを提案します。
私たちは、放射線科医の助けを借りて、反事実的説明の関連性を臨床的に評価します。
私たちのコードは公開されています。
要約(オリジナル)
Deep learning models used in medical image analysis are prone to raising reliability concerns due to their black-box nature. To shed light on these black-box models, previous works predominantly focus on identifying the contribution of input features to the diagnosis, i.e., feature attribution. In this work, we explore counterfactual explanations to identify what patterns the models rely on for diagnosis. Specifically, we investigate the effect of changing features within chest X-rays on the classifier’s output to understand its decision mechanism. We leverage a StyleGAN-based approach (StyleEx) to create counterfactual explanations for chest X-rays by manipulating specific latent directions in their latent space. In addition, we propose EigenFind to significantly reduce the computation time of generated explanations. We clinically evaluate the relevancy of our counterfactual explanations with the help of radiologists. Our code is publicly available.
arxiv情報
著者 | Matan Atad,Vitalii Dmytrenko,Yitong Li,Xinyue Zhang,Matthias Keicher,Jan Kirschke,Bene Wiestler,Ashkan Khakzar,Nassir Navab |
発行日 | 2022-07-15 15:51:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google