Enhancing Post-Hoc Explanation Benchmark Reliability for Image Classification

要約

ディープ ニューラル ネットワークは、画像分類には強力ですが、多くの場合「ブラック ボックス」として動作し、意思決定プロセスの理解を複雑にします。
さまざまな説明方法、特に顕著性マップを生成する方法は、この課題に対処することを目的としています。
ただし、忠実度メトリクスの不一致の問題は、説明方法の信頼できるベンチマークの妨げとなります。
この論文では、心理測定学にヒントを得たアプローチを採用しており、クリッペンドルフのアルファを利用して、画像分類におけるポストホック手法のベンチマーク信頼性を定量化しています。
この研究では、ロバスト性とキャリブレーションを強化するために、摂動サンプルの供給や焦点損失の採用など、モデル トレーニングの変更を提案しています。
実証的評価により、メトリクス、データセット、ポストホック手法全体でベンチマークの信頼性が大幅に向上していることが実証されています。
この先駆的な研究は、事後説明法の領域でより信頼性の高い評価実践の基礎を確立し、評価プロセスにおけるモデルの堅牢性の重要性を強調しています。

要約(オリジナル)

Deep neural networks, while powerful for image classification, often operate as ‘black boxes,’ complicating the understanding of their decision-making processes. Various explanation methods, particularly those generating saliency maps, aim to address this challenge. However, the inconsistency issues of faithfulness metrics hinder reliable benchmarking of explanation methods. This paper employs an approach inspired by psychometrics, utilizing Krippendorf’s alpha to quantify the benchmark reliability of post-hoc methods in image classification. The study proposes model training modifications, including feeding perturbed samples and employing focal loss, to enhance robustness and calibration. Empirical evaluations demonstrate significant improvements in benchmark reliability across metrics, datasets, and post-hoc methods. This pioneering work establishes a foundation for more reliable evaluation practices in the realm of post-hoc explanation methods, emphasizing the importance of model robustness in the assessment process.

arxiv情報

著者 Tristan Gomez,Harold Mouchère
発行日 2023-11-29 18:21:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク