要約
この論文では、畳み込みニューラル ネットワーク (CNN) の予測を解釈する際に中心的な役割を果たすアトリビューション マップを評価するためのアプローチを紹介します。
広く使用されている挿入/削除メトリクスは、ランキングの信頼性に影響を与える分布の変化の影響を受けやすいことを示します。
私たちの方法は、ピクセルの変更を敵対的な摂動で置き換えることを提案しており、これにより、より堅牢な評価フレームワークが提供されます。
平滑性と単調性の尺度を使用することで、分布のシフトを修正する際のアプローチの有効性を示します。
さらに、これまでで最も包括的なアトリビューション マップの定量的および定性的評価を実施します。
健全性チェックとしてベースライン アトリビューション マップを導入すると、すべてのチェックに合格する唯一の候補がこのメトリクスであることがわかりました。
Kendall の $\tau$ 順位相関係数を使用して、15 のデータセットとアーキテクチャの組み合わせにわたってメトリクスの一貫性が向上していることを示します。
テストした 16 個のアトリビューション マップのうち、現在利用可能な最も優れたマップは SmoothGrad であることが結果から明らかに示されています。
この研究は、信頼性の高い一貫した評価フレームワークを提供することで、アトリビューション マップの開発に重要な貢献を果たします。
再現性を確保するために、結果とともにコードを提供します。
要約(オリジナル)
In this paper, we present an approach for evaluating attribution maps, which play a central role in interpreting the predictions of convolutional neural networks (CNNs). We show that the widely used insertion/deletion metrics are susceptible to distribution shifts that affect the reliability of the ranking. Our method proposes to replace pixel modifications with adversarial perturbations, which provides a more robust evaluation framework. By using smoothness and monotonicity measures, we illustrate the effectiveness of our approach in correcting distribution shifts. In addition, we conduct the most comprehensive quantitative and qualitative assessment of attribution maps to date. Introducing baseline attribution maps as sanity checks, we find that our metric is the only contender to pass all checks. Using Kendall’s $\tau$ rank correlation coefficient, we show the increased consistency of our metric across 15 dataset-architecture combinations. Of the 16 attribution maps tested, our results clearly show SmoothGrad to be the best map currently available. This research makes an important contribution to the development of attribution maps by providing a reliable and consistent evaluation framework. To ensure reproducibility, we will provide the code along with our results.
arxiv情報
著者 | Lars Nieradzik,Henrike Stephani,Janis Keuper |
発行日 | 2024-11-22 13:57:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google