要約
予測を正当化する必要がある重要な分野での深いニューラルネットワーク(DNNS)の採用は、それらの固有のブラックボックスの性質によって妨げられます。
このホワイトペーパーでは、DNNベースの画像分類子を説明するためのモデルと存在する方法であるP-TAME(説明のための摂動ベースのトレーニング可能な注意メカニズム)を紹介します。
P-Tameは、補助画像分類器を使用して、入力画像から特徴を抽出し、説明されているバックボーン分類器の内部アーキテクチャに説明方法を調整する必要性をバイパスします。
高い計算要件を持つ従来の摂動ベースの方法とは異なり、P-TAMEは、推論中に単一のフォワードパスで高解像度の説明を生成することにより、効率的な代替を提供します。
P-Tameを適用して、VGG-16、ResNet-50、およびVIT-B-16の決定を説明します。
定量的および定性的な結果は、モデル固有のアプローチを含む以前の説明可能性方法に一致またはアウトパフォームすることを示しています。
コードモデルと訓練されたモデルは、受け入れられるとリリースされます。
要約(オリジナル)
The adoption of Deep Neural Networks (DNNs) in critical fields where predictions need to be accompanied by justifications is hindered by their inherent black-box nature. In this paper, we introduce P-TAME (Perturbation-based Trainable Attention Mechanism for Explanations), a model-agnostic method for explaining DNN-based image classifiers. P-TAME employs an auxiliary image classifier to extract features from the input image, bypassing the need to tailor the explanation method to the internal architecture of the backbone classifier being explained. Unlike traditional perturbation-based methods, which have high computational requirements, P-TAME offers an efficient alternative by generating high-resolution explanations in a single forward pass during inference. We apply P-TAME to explain the decisions of VGG-16, ResNet-50, and ViT-B-16, three distinct and widely used image classifiers. Quantitative and qualitative results show that our method matches or outperforms previous explainability methods, including model-specific approaches. Code and trained models will be released upon acceptance.
arxiv情報
著者 | Mariano V. Ntrougkas,Vasileios Mezaris,Ioannis Patras |
発行日 | 2025-01-29 18:06:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google