要約
説明可能な人工知能 (xAI) には、AI ベースのシステムの透明性と信頼性を高める可能性があります。
ディープ ニューラル ネットワーク (DNN) を使用すると正確な予測を行うことができますが、そのような予測に到達するために使用されるプロセスは通常説明が困難です。
テキスト内の単語フレーズや画像内のスーパーピクセルなど、知覚的に人間に優しい表現に関しては、プロトタイプベースの説明はモデルの決定を正当化することができます。
この研究では、画像分類のための DNN アーキテクチャである Enhanced Prototypical Part Network (EPPNet) を導入します。これは、分類結果の説明に使用できる関連プロトタイプを検出しながら、強力なパフォーマンスを実現します。
これは、より関連性があり、人間が理解できるプロトタイプを発見するのに役立つ新しいクラスター損失を導入することによって実現されます。
また、発見されたプロトタイプに基づいて結果の説明可能性を評価する忠実度スコアも導入します。
私たちのスコアは、学習されたプロトタイプの関連性だけでなく、モデルのパフォーマンスも考慮します。
CUB-200-2011 データセットに対する当社の評価では、分類精度と説明可能性の両方の点で、EPPNet が最先端の xAI ベースの手法よりも優れていることが示されています。
要約(オリジナル)
Explainable Artificial Intelligence (xAI) has the potential to enhance the transparency and trust of AI-based systems. Although accurate predictions can be made using Deep Neural Networks (DNNs), the process used to arrive at such predictions is usually hard to explain. In terms of perceptibly human-friendly representations, such as word phrases in text or super-pixels in images, prototype-based explanations can justify a model’s decision. In this work, we introduce a DNN architecture for image classification, the Enhanced Prototypical Part Network (EPPNet), which achieves strong performance while discovering relevant prototypes that can be used to explain the classification results. This is achieved by introducing a novel cluster loss that helps to discover more relevant human-understandable prototypes. We also introduce a faithfulness score to evaluate the explainability of the results based on the discovered prototypes. Our score not only accounts for the relevance of the learned prototypes but also the performance of a model. Our evaluations on the CUB-200-2011 dataset show that the EPPNet outperforms state-of-the-art xAI-based methods, in terms of both classification accuracy and explainability
arxiv情報
著者 | Bhushan Atote,Victor Sanchez |
発行日 | 2024-08-08 17:26:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google