Faithful and Plausible Natural Language Explanations for Image Classification: A Pipeline Approach

要約

画像分類の既存の説明方法は、忠実でもっともらしい説明を提供するのに苦労しています。
この論文では、トレーニング プロセスを変更したり、予測パフォーマンスに影響を与えたりすることなく、CNN ベースの分類器に適用できるポストホック自然言語説明方法を提案することで、この問題に対処します。
このメソッドは、影響力のあるニューロンと対応する活性化マップを分析することにより、構造化された意味表現の形式で分類器の決定プロセスの忠実な記述を生成し、言語モデルによってテキストに変換されます。
このパイプライン アプローチを通じて、生成された説明はニューラル ネットワーク アーキテクチャに基づいており、専門家でなくてもアクセスできるままでありながら、分類プロセスに対する正確な洞察を提供します。
実験結果は、私たちの方法によって構築された NLE が大幅にもっともらしく、忠実であることを示しています。
特に、ニューラル ネットワーク構造へのユーザー介入 (ニューロンのマスキング) は、ベースラインよりも 3 倍効果的です。

要約(オリジナル)

Existing explanation methods for image classification struggle to provide faithful and plausible explanations. This paper addresses this issue by proposing a post-hoc natural language explanation method that can be applied to any CNN-based classifier without altering its training process or affecting predictive performance. By analysing influential neurons and the corresponding activation maps, the method generates a faithful description of the classifier’s decision process in the form of a structured meaning representation, which is then converted into text by a language model. Through this pipeline approach, the generated explanations are grounded in the neural network architecture, providing accurate insight into the classification process while remaining accessible to non-experts. Experimental results show that the NLEs constructed by our method are significantly more plausible and faithful. In particular, user interventions in the neural network structure (masking of neurons) are three times more effective than the baselines.

arxiv情報

著者 Adam Wojciechowski,Mateusz Lango,Ondrej Dusek
発行日 2024-07-30 15:17:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク