Learning Visual Explanations for DCNN-Based Image Classifiers Using an Attention Mechanism

要約

この論文では、L-CAM-Fm および L-CAM-Img と呼ばれる、深層畳み込みニューラル ネットワーク (DCNN) 画像分類器用の 2 つの新しい学習ベースの eXplainable AI (XAI) メソッドが提案されています。
どちらの方法も、元の (凍結された) DCNN に挿入され、最後の畳み込み層の特徴マップからクラス活性化マップ (CAM) を導出するようにトレーニングされたアテンション メカニズムを使用します。
トレーニング中、CAM は特徴マップ (L-CAM-Fm) または入力画像 (L-CAM-Img) に適用され、DCNN の結果を説明する画像領域をアテンション メカニズムに強制的に学習させます。
ImageNet での実験的評価は、提案された方法が競合する結果を達成する一方で、推論段階で単一のフォワード パスを必要とすることを示しています。
さらに、導出された説明に基づいて包括的な定性分析が実行され、トレーニングされた分類器に影響を与える可能性のあるデータセットのバイアスなど、分類エラーの背後にある理由を理解するための貴重な洞察が提供されます。

要約(オリジナル)

In this paper two new learning-based eXplainable AI (XAI) methods for deep convolutional neural network (DCNN) image classifiers, called L-CAM-Fm and L-CAM-Img, are proposed. Both methods use an attention mechanism that is inserted in the original (frozen) DCNN and is trained to derive class activation maps (CAMs) from the last convolutional layer’s feature maps. During training, CAMs are applied to the feature maps (L-CAM-Fm) or the input image (L-CAM-Img) forcing the attention mechanism to learn the image regions explaining the DCNN’s outcome. Experimental evaluation on ImageNet shows that the proposed methods achieve competitive results while requiring a single forward pass at the inference stage. Moreover, based on the derived explanations a comprehensive qualitative analysis is performed providing valuable insight for understanding the reasons behind classification errors, including possible dataset biases affecting the trained classifier.

arxiv情報

著者 Ioanna Gkartzonika,Nikolaos Gkalelis,Vasileios Mezaris
発行日 2022-09-22 17:33:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク