Comprehensive Attribution: Inherently Explainable Vision Model with Feature Detector

要約

深視野モデルの人気が急速に高まるにつれ、モデル予測の説明がますます重要視されるようになってきています。
本質的に説明可能な帰属手法は、予測に大きく寄与する画像内の重要な領域を特定することにより、モデルの動作の理解を高めることを目的としています。
これは、セレクター (重要な特徴を識別するための属性マップを生成する) と予測器 (識別された特徴を使用して予測を行う) を協力してトレーニングすることによって実現されます。
多くの進歩にもかかわらず、既存の手法は、識別機能がマスクされてしまう不完全性の問題と、最適化されていないセレクターが最初にノイズを選択し、予測子がこのノイズに適合してサイクルが永続するという連動問題に悩まされています。
これらの問題に対処するために、マスクされた領域に識別可能な特徴が存在しないようにする新しい目的を導入し、特徴選択の包括性を高めます。
マスクされた領域内の識別特徴を検出するために、事前トレーニングされた検出器が導入されます。
セレクターが識別機能の代わりにノイズを選択する場合、検出器はセレクターにペナルティを与えることによって連動状況を観察し、破壊することができます。
広範な実験により、私たちのモデルは通常のブラックボックス モデルよりも高い精度で正確な予測を行い、高い特徴カバレッジ、位置特定能力、忠実度、および堅牢性を備えたアトリビューション マップを生成することが示されています。
私たちのコードは \href{https://github.com/Zood123/COMET}{https://github.com/Zood123/COMET} で入手できます。

要約(オリジナル)

As deep vision models’ popularity rapidly increases, there is a growing emphasis on explanations for model predictions. The inherently explainable attribution method aims to enhance the understanding of model behavior by identifying the important regions in images that significantly contribute to predictions. It is achieved by cooperatively training a selector (generating an attribution map to identify important features) and a predictor (making predictions using the identified features). Despite many advancements, existing methods suffer from the incompleteness problem, where discriminative features are masked out, and the interlocking problem, where the non-optimized selector initially selects noise, causing the predictor to fit on this noise and perpetuate the cycle. To address these problems, we introduce a new objective that discourages the presence of discriminative features in the masked-out regions thus enhancing the comprehensiveness of feature selection. A pre-trained detector is introduced to detect discriminative features in the masked-out region. If the selector selects noise instead of discriminative features, the detector can observe and break the interlocking situation by penalizing the selector. Extensive experiments show that our model makes accurate predictions with higher accuracy than the regular black-box model, and produces attribution maps with high feature coverage, localization ability, fidelity and robustness. Our code will be available at \href{https://github.com/Zood123/COMET}{https://github.com/Zood123/COMET}.

arxiv情報

著者 Xianren Zhang,Dongwon Lee,Suhang Wang
発行日 2024-08-06 17:22:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク