Interpretability-Aware Vision Transformer

要約

ビジョントランス(VITS)は、さまざまなビジョンタスクを解くための顕著なモデルになっています。
ただし、VITの解釈可能性は、有望なパフォーマンスに対応していません。
VITSの出力を説明するために{\ It Post Hoc}ソリューションの開発に関心が高まっていますが、これらの方法は、さまざまなダウンストリームタスクやさまざまな変圧器アーキテクチャに一般化されません。
さらに、VITが指定されたデータで適切に訓練されておらず、関心領域に優先順位を付けない場合、{\ It Post Hoc}メソッドはあまり効果的ではありません。
別の{\ it Post Hoc}アプローチを開発する代わりに、モデルの解釈可能性を本質的に強化する新しいトレーニング手順を導入します。
私たちの解釈可能性対応のVIT(IA-vit)は、新鮮な洞察からインスピレーションを引き出します。クラスパッチと画像パッチの両方が、予測された分布と注意マップを一貫して生成します。
IA-vitは、解釈可能性対応のトレーニング目標と共同でトレーニングされる特徴抽出器、予測子、および通訳で構成されています。
その結果、インタープリターは予測因子の動作をシミュレートし、その単一ヘッドの自己触媒メカニズムを通じて忠実な説明を提供します。
私たちの包括的な実験結果は、モデルのパフォーマンスと解釈可能性の定性的および定量的評価の両方で、いくつかの画像分類タスクにおけるIA-vitの有効性を示しています。
ソースコードは、https://github.com/qiangyao1988/ia-vitから入手できます。

要約(オリジナル)

Vision Transformers (ViTs) have become prominent models for solving various vision tasks. However, the interpretability of ViTs has not kept pace with their promising performance. While there has been a surge of interest in developing {\it post hoc} solutions to explain ViTs’ outputs, these methods do not generalize to different downstream tasks and various transformer architectures. Furthermore, if ViTs are not properly trained with the given data and do not prioritize the region of interest, the {\it post hoc} methods would be less effective. Instead of developing another {\it post hoc} approach, we introduce a novel training procedure that inherently enhances model interpretability. Our interpretability-aware ViT (IA-ViT) draws inspiration from a fresh insight: both the class patch and image patches consistently generate predicted distributions and attention maps. IA-ViT is composed of a feature extractor, a predictor, and an interpreter, which are trained jointly with an interpretability-aware training objective. Consequently, the interpreter simulates the behavior of the predictor and provides a faithful explanation through its single-head self-attention mechanism. Our comprehensive experimental results demonstrate the effectiveness of IA-ViT in several image classification tasks, with both qualitative and quantitative evaluations of model performance and interpretability. Source code is available from: https://github.com/qiangyao1988/IA-ViT.

arxiv情報

著者 Yao Qiang,Chengyin Li,Prashant Khanduri,Dongxiao Zhu
発行日 2025-05-01 15:22:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク