要約
CAM ベースの方法は、画像分類モデルの決定を説明する顕著性マップを生成する、広く使用されている事後解釈可能性方法です。
顕著性マップは、予測に関連する画像の重要な領域を強調表示します。
この論文では、これらの手法のほとんどが、重要なスコアをモデルが認識できない画像の部分に誤って帰属させる可能性があることを示します。
我々は、この現象が理論的にも実験的にも起こることを示します。
理論面では、初期化時に単純なマスクされた CNN モデル上の GradCAM の動作を分析します。
実験的に、画像の下部を使用しないように制約された VGG のようなモデルをトレーニングしましたが、画像の見えない部分でプラスのスコアが観察されました。
この動作は 2 つの新しいデータセットで定量的に評価されます。
私たちは、これには問題があり、モデルの動作の誤った解釈につながる可能性があると考えています。
要約(オリジナル)
CAM-based methods are widely-used post-hoc interpretability method that produce a saliency map to explain the decision of an image classification model. The saliency map highlights the important areas of the image relevant to the prediction. In this paper, we show that most of these methods can incorrectly attribute an important score to parts of the image that the model cannot see. We show that this phenomenon occurs both theoretically and experimentally. On the theory side, we analyze the behavior of GradCAM on a simple masked CNN model at initialization. Experimentally, we train a VGG-like model constrained to not use the lower part of the image and nevertheless observe positive scores in the unseen part of the image. This behavior is evaluated quantitatively on two new datasets. We believe that this is problematic, potentially leading to mis-interpretation of the model’s behavior.
arxiv情報
著者 | Magamed Taimeskhanov,Ronan Sicre,Damien Garreau |
発行日 | 2024-04-02 13:57:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google