要約
ディープ ニューラル ネットワーク (DNN) の説明可能性は、近年ますます注目を集めています。
さまざまな説明可能性アプローチの中で、コンセプトベースの技術は、個々のピクセルだけに焦点を当てるのではなく、人間が意味をもつコンセプトを利用する能力で際立っています。
しかし、ローカルとグローバルの両方の説明を一貫して提供する方法は不足しています。
さらに、ほとんどの方法には誤分類のケースを説明する機能がありません。
これらの課題を考慮して、ローカル概念とグローバル概念の両方の教師なし学習のための統一された概念ベースのシステムを提案します。
私たちの主な目的は、概念の重要性を推定するために代理説明ネットワークをトレーニングすることによって、各データ カテゴリの根底にある本質的な概念を明らかにすることです。
私たちの実験結果は、忠実性、完全性、一般性を含む多様な定量的および定性的評価を通じて、発見された概念の有効性を実証しました。
さらに、私たちのアプローチは、正確な予測と誤った予測の両方の説明を容易にし、ターゲットオブジェクトとクラスの特性を理解するための貴重なツールになります。
要約(オリジナル)
Explainability of Deep Neural Networks (DNNs) has been garnering increasing attention in recent years. Of the various explainability approaches, concept-based techniques stand out for their ability to utilize human-meaningful concepts instead of focusing solely on individual pixels. However, there is a scarcity of methods that consistently provide both local and global explanations. Moreover, most of the methods have no offer to explain misclassification cases. Considering these challenges, we present a unified concept-based system for unsupervised learning of both local and global concepts. Our primary objective is to uncover the intrinsic concepts underlying each data category by training surrogate explainer networks to estimate the importance of the concepts. Our experimental results substantiated the efficacy of the discovered concepts through diverse quantitative and qualitative assessments, encompassing faithfulness, completeness, and generality. Furthermore, our approach facilitates the explanation of both accurate and erroneous predictions, rendering it a valuable tool for comprehending the characteristics of the target objects and classes.
arxiv情報
著者 | Fatemeh Aghaeipoor,Dorsa Asgarian,Mohammad Sabokrou |
発行日 | 2023-10-04 10:39:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google