T-TAME: Trainable Attention Mechanism for Explaining Convolutional Networks and Vision Transformers

要約

画像分類タスク用の Vision Transformers やその他の深層学習アーキテクチャの開発と導入は急速に進んでいます。
ただし、ニューラル ネットワークの「ブラック ボックス」という性質が、説明可能性が不可欠なアプリケーションでの採用の障壁となっています。
主に畳み込みニューラル ネットワーク向けに、説明を生成するいくつかの手法が提案されていますが、そのような手法をビジョン トランスフォーマーの新しいパラダイムに適応させるのは簡単ではありません。
この論文では、画像分類タスクで使用されるディープ ニューラル ネットワークを説明するための一般的な方法論である、T-TAME (Transformer 互換の説明用のトレーニング可能な注意メカニズム) を紹介します。
提案されたアーキテクチャとトレーニング手法は、合理化されたトレーニング アプローチを使用して、畳み込みまたはビジョン トランスフォーマーのようなニューラル ネットワークに簡単に適用できます。
トレーニング後、説明マップは 1 回の順方向パスで計算できます。
これらの説明マップは、計算コストのかかる摂動ベースの説明可能性手法の出力と同等かそれを上回り、SOTA パフォーマンスを実現します。
ImageNet データセットでトレーニングされた 3 つの一般的な深層学習分類器アーキテクチャ、VGG-16、ResNet-50、および ViT-B-16 に T-TAME を適用し、既存の最先端の説明可能性手法の改善を実証します。
結果の詳細な分析とアブレーション研究により、T-TAME 設計の選択が生成された説明マップの品質にどのような影響を与えるかについての洞察が得られます。

要約(オリジナル)

The development and adoption of Vision Transformers and other deep-learning architectures for image classification tasks has been rapid. However, the ‘black box’ nature of neural networks is a barrier to adoption in applications where explainability is essential. While some techniques for generating explanations have been proposed, primarily for Convolutional Neural Networks, adapting such techniques to the new paradigm of Vision Transformers is non-trivial. This paper presents T-TAME, Transformer-compatible Trainable Attention Mechanism for Explanations, a general methodology for explaining deep neural networks used in image classification tasks. The proposed architecture and training technique can be easily applied to any convolutional or Vision Transformer-like neural network, using a streamlined training approach. After training, explanation maps can be computed in a single forward pass; these explanation maps are comparable to or outperform the outputs of computationally expensive perturbation-based explainability techniques, achieving SOTA performance. We apply T-TAME to three popular deep learning classifier architectures, VGG-16, ResNet-50, and ViT-B-16, trained on the ImageNet dataset, and we demonstrate improvements over existing state-of-the-art explainability methods. A detailed analysis of the results and an ablation study provide insights into how the T-TAME design choices affect the quality of the generated explanation maps.

arxiv情報

著者 Mariano V. Ntrougkas,Nikolaos Gkalelis,Vasileios Mezaris
発行日 2024-03-07 14:25:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.MM パーマリンク