要約
画像分類器の出力を説明するための既存のツールは、モデル内部へのアクセスに依存するホワイトボックスと、モデルに依存しないブラックボックスに分類できます。
医療分野での AI の使用が増加するにつれて、説明可能ツールの使用も増加しています。
医用画像の説明に関する既存の研究は、gradcam などのホワイトボックス ツールに焦点を当てています。
ただし、ブラック ボックス ツールに切り替えることには、あらゆる分類器で使用できることや利用可能なブラック ボックス ツールの幅広い選択肢など、明らかな利点があります。
標準イメージでは、ブラック ボックス ツールはホワイト ボックスと同じくらい正確です。
この論文では、脳腫瘍 MRI データセット上の Gradcam に対するいくつかのブラックボックス法のパフォーマンスを比較します。
私たちは、ほとんどのブラックボックス ツールが医療画像の分類を説明するのに適していないことを実証し、その欠点の理由を詳細に分析します。
また、ブラックボックス ツールの 1 つである因果的説明可能性ベースの rex が、\gradcam と同様に機能することも示します。
要約(オリジナル)
Existing tools for explaining the output of image classifiers can be divided into white-box, which rely on access to the model internals, and black-box, agnostic to the model. As the usage of AI in the medical domain grows, so too does the usage of explainability tools. Existing work on medical image explanations focuses on white-box tools, such as gradcam. However, there are clear advantages to switching to a black-box tool, including the ability to use it with any classifier and the wide selection of black-box tools available. On standard images, black-box tools are as precise as white-box. In this paper we compare the performance of several black-box methods against gradcam on a brain cancer MRI dataset. We demonstrate that most black-box tools are not suitable for explaining medical image classifications and present a detailed analysis of the reasons for their shortcomings. We also show that one black-box tool, a causal explainability-based rex, performs as well as \gradcam.
arxiv情報
著者 | Nathan Blake,Hana Chockler,David A. Kelly,Santiago Calderon Pena,Akchunya Chanchal |
発行日 | 2023-11-24 13:25:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google