要約
最近の研究の焦点は、単にさまざまなタスクにおけるディープ ニューラル ネットワーク (DNN) のパフォーマンスを向上させることから、人間にとってより解釈しやすい DNN に移ってきています。
説明可能な人工知能 (XAI) の分野では、顕著性ベースのアプローチや概念ベースのアプローチなど、さまざまな技術が観察されています。
コンセプトベースのアプローチでは、モデルの決定をコンセプトと呼ばれる人間が理解できる簡単な用語で説明します。
概念は人間が解釈できるデータの単位であり、人間の思考の基盤です。
概念の観点から説明すると、偽の相関関係、固有のバイアス、賢いハンスを検出できるようになります。
概念ベースの説明の出現により、さまざまな概念表現方法と自動概念発見アルゴリズムが登場しました。
最近の手法の中には、事後モデルのもつれ解除評価に概念を使用するものや、事前トレーニングに概念を使用するものがあります。
コンセプトベースのアプローチは新しく、多くの表現が登場していますが、コンセプトベースのモデルの改善に関する取り組みは非常に限られています。
DNN、特にビジョンにおけるさまざまな概念表現とその発見アルゴリズムの系統的なレビューと分類を提供します。
また、コンセプトベースのモデル改善手法を初めて調査したコンセプトベースのモデル改善文献の詳細も提供します。
要約(オリジナル)
The focus of recent research has shifted from merely increasing the Deep Neural Networks (DNNs) performance in various tasks to DNNs, which are more interpretable to humans. The field of eXplainable Artificial Intelligence (XAI) has observed various techniques, including saliency-based and concept-based approaches. Concept-based approaches explain the model’s decisions in simple human understandable terms called Concepts. Concepts are human interpretable units of data and are the thinking ground of humans. Explanations in terms of concepts enable detecting spurious correlations, inherent biases, or clever-hans. With the advent of concept-based explanations, there have been various concept representation methods and automatic concept discovery algorithms. Some recent methods use concepts for post-hoc model disentanglement evaluation, while others use them for ante-hoc training. The concept-based approaches are new, with many representations coming up, and there is very limited work on Concept-based Model improvement. We provide a systematic review and taxonomy of various concept representations and their discovery algorithms in DNNs, specifically in vision. We also provide details on concept-based model improvement literature, which is the first to survey concept-based model improvement methods.
arxiv情報
著者 | Avani Gupta,P J Narayanan |
発行日 | 2024-03-21 17:09:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google