Free Argumentative Exchanges for Explaining Image Classifiers

要約

ディープラーニングモデルは強力な画像分類器ですが、その不透明度は信頼性を妨げます。
説明これらの分類器内で推論プロセスを忠実に、そして明確な方法でキャプチャする方法は、それらの完全な複雑さとサイズのために不足しています。
画像分類子の出力を2人のエージェント間で議論し、それぞれが特定のクラスを主張する新しい方法を定義することにより、この問題の解決策を提供します。
これらの議論は、自由な議論の交換(FAX)の具体的なインスタンスとして取得します。これは、エージェントが他のエージェントによる意見を当初述べたものとは異なる方法で内面化できるようにする新しい議論に基づいたマルチエージェントフレームワークです。
2つのメトリック(コンセンサスと説得率)を定義して、画像分類器の論争的説明としてFAXの有用性を評価します。
次に、FAXがこれらのメトリックに沿ってうまく機能することを示す多くの経験的実験を実施し、従来の非重要な説明方法よりも画像分類器に対してより忠実であることを示します。
すべての実装は、https://github.com/koriavinash1/faxで見つけることができます。

要約(オリジナル)

Deep learning models are powerful image classifiers but their opacity hinders their trustworthiness. Explanation methods for capturing the reasoning process within these classifiers faithfully and in a clear manner are scarce, due to their sheer complexity and size. We provide a solution for this problem by defining a novel method for explaining the outputs of image classifiers with debates between two agents, each arguing for a particular class. We obtain these debates as concrete instances of Free Argumentative eXchanges (FAXs), a novel argumentation-based multi-agent framework allowing agents to internalise opinions by other agents differently than originally stated. We define two metrics (consensus and persuasion rate) to assess the usefulness of FAXs as argumentative explanations for image classifiers. We then conduct a number of empirical experiments showing that FAXs perform well along these metrics as well as being more faithful to the image classifiers than conventional, non-argumentative explanation methods. All our implementations can be found at https://github.com/koriavinash1/FAX.

arxiv情報

著者 Avinash Kori,Antonio Rago,Francesca Toni
発行日 2025-02-18 16:15:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク