要約
医療アプリケーションの画像分類モデルを説明するために設計された BlackBox Counterfactual Explainer を提案します。
特徴の重要性を評価する古典的なアプローチ (例えば、顕著性マップ) は、重要な解剖学的領域の画像特徴が分類決定に「どのように」関連するかを説明しません。
私たちのフレームワークは、クエリ イメージ内のクラスのセマンティック効果を徐々に「誇張」することによって、ターゲット クラスの決定を説明します。
Generative Adversarial Network (GAN) を採用して、分類の決定が元のクラスからその否定に変わるように、クエリ画像に対する摂動の漸進的なセットを生成しました。
フレームワークからの反事実の説明を使用して、複数のラベルを持つ胸部 X 線データセットでトレーニングされた分類子を監査しました。
私たちは、説明を評価するために、心胸郭比や健康な肋横隔膜陥凹のスコアなど、臨床的に関連する定量的指標を提案しました。
説明のさまざまな側面を評価することにより、さまざまなスタイルの説明 (説明なし、顕著性マップ、cycleGAN 説明、および反事実的説明) を比較するために、診断放射線学の研修医を対象に人間に基づいた実験を実施しました。
、(3) 視覚的な品質、(d) アイデンティティの保護、および (5) ユーザーへの説明の全体的な有用性。
私たちの結果は、反事実的説明が、説明なしのベースラインと比較して、分類子の決定に対するユーザーの理解を大幅に改善した唯一の説明方法であることを示しています。
私たちのメトリクスは、医用画像のモデル説明方法を評価するためのベンチマークを確立しました。
私たちの説明では、分類子が診断の決定に臨床的に関連する放射線写真の特徴に依存していたため、エンドユーザーにとって意思決定プロセスがより透過的になっていることが明らかになりました。
要約(オリジナル)
We propose a BlackBox Counterfactual Explainer, designed to explain image classification models for medical applications. Classical approaches (e.g., saliency maps) that assess feature importance do not explain ‘how’ imaging features in important anatomical regions are relevant to the classification decision. Our framework explains the decision for a target class by gradually ‘exaggerating’ the semantic effect of the class in a query image. We adopted a Generative Adversarial Network (GAN) to generate a progressive set of perturbations to a query image, such that the classification decision changes from its original class to its negation. We used counterfactual explanations from our framework to audit a classifier trained on a chest x-ray dataset with multiple labels. We proposed clinically-relevant quantitative metrics such as cardiothoracic ratio and the score of a healthy costophrenic recess to evaluate our explanations. We conducted a human-grounded experiment with diagnostic radiology residents to compare different styles of explanations (no explanation, saliency map, cycleGAN explanation, and our counterfactual explanation) by evaluating different aspects of explanations: (1) understandability, (2) classifier’s decision justification, (3) visual quality, (d) identity preservation, and (5) overall helpfulness of an explanation to the users. Our results show that our counterfactual explanation was the only explanation method that significantly improved the users’ understanding of the classifier’s decision compared to the no-explanation baseline. Our metrics established a benchmark for evaluating model explanation methods in medical images. Our explanations revealed that the classifier relied on clinically relevant radiographic features for its diagnostic decisions, thus making its decision-making process more transparent to the end-user.
arxiv情報
著者 | Sumedha Singla,Motahhare Eslami,Brian Pollack,Stephen Wallace,Kayhan Batmanghelich |
発行日 | 2022-11-18 16:33:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google