Inherently Interpretable Multi-Label Classification Using Class-Specific Counterfactuals

要約

解釈可能性は、医用画像解析などの重要なアプリケーション分野における機械学習アルゴリズムにとって不可欠です。
ただし、高性能のブラックボックス ニューラル ネットワークは予測の説明を提供しないため、不信感や最適ではない人間と ML のコラボレーションにつながる可能性があります。
実際に広く使用されている事後説明手法は、深刻な概念上の問題を抱えていることが示されています。
さらに、この論文で示すように、現在の説明技術は、単一の画像で複数の医学的所見が同時に発生する可能性があるマルチラベル シナリオでは適切に機能しません。
マルチラベル分類のための本質的に解釈可能なモデルである Attri-Net を提案します。
Attri-Net は、透過的で信頼できる、人間が理解できる説明を提供する強力な分類器です。
モデルはまず、反事実に基づいてクラス固有の帰属マップを生成し、特定の医学的所見に対応する画像領域を特定します。
次に、単純なロジスティック回帰分類器を使用して、これらのアトリビューション マップのみに基づいて予測を行います。
Attri-Net を、3 つの胸部 X 線データセットに対する 5 つの事後説明手法および 1 つの本質的に解釈可能な分類子と比較します。
Attri-Net は、臨床知識と一致する高品質のマルチラベル説明を生成し、最先端の分類モデルに匹敵する分類パフォーマンスを備えていることがわかりました。

要約(オリジナル)

Interpretability is essential for machine learning algorithms in high-stakes application fields such as medical image analysis. However, high-performing black-box neural networks do not provide explanations for their predictions, which can lead to mistrust and suboptimal human-ML collaboration. Post-hoc explanation techniques, which are widely used in practice, have been shown to suffer from severe conceptual problems. Furthermore, as we show in this paper, current explanation techniques do not perform adequately in the multi-label scenario, in which multiple medical findings may co-occur in a single image. We propose Attri-Net, an inherently interpretable model for multi-label classification. Attri-Net is a powerful classifier that provides transparent, trustworthy, and human-understandable explanations. The model first generates class-specific attribution maps based on counterfactuals to identify which image regions correspond to certain medical findings. Then a simple logistic regression classifier is used to make predictions based solely on these attribution maps. We compare Attri-Net to five post-hoc explanation techniques and one inherently interpretable classifier on three chest X-ray datasets. We find that Attri-Net produces high-quality multi-label explanations consistent with clinical knowledge and has comparable classification performance to state-of-the-art classification models.

arxiv情報

著者 Susu Sun,Stefano Woerner,Andreas Maier,Lisa M. Koch,Christian F. Baumgartner
発行日 2023-03-01 13:32:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク