要約
説明可能な人工知能の分野は、より透明性と信頼性の高いモデルに対するニーズの高まりに応えて登場しました。
しかし、生の特徴を使用して説明を提供することについては、最近いくつかの作品で議論があり、よりユーザーが理解できる説明を主張しています。
この問題に対処するために、近年、概念ベースの説明可能な人工知能 (C-XAI) 手法を提案する幅広い論文が作成されています。
それにもかかわらず、統一された分類と正確な分野の定義はまだ存在していません。
このペーパーでは、C-XAI アプローチの徹底的なレビューを提供することでギャップを埋めます。
私たちはさまざまな概念と説明の種類を定義し、特定します。
9 つのカテゴリを識別する分類法を提供し、開発コンテキストに基づいて適切なカテゴリを選択するためのガイドラインを提案します。
さらに、将来の手法の開発を支援することを目的として、メトリクス、人間による評価、使用されたデータセットを含む一般的な評価戦略を報告します。
この調査は、研究者、実践者、および分野の専門家がこの革新的な分野を理解し、推進するのに役立つと信じています。
要約(オリジナル)
The field of explainable artificial intelligence emerged in response to the growing need for more transparent and reliable models. However, using raw features to provide explanations has been disputed in several works lately, advocating for more user-understandable explanations. To address this issue, a wide range of papers proposing Concept-based eXplainable Artificial Intelligence (C-XAI) methods have arisen in recent years. Nevertheless, a unified categorization and precise field definition are still missing. This paper fills the gap by offering a thorough review of C-XAI approaches. We define and identify different concepts and explanation types. We provide a taxonomy identifying nine categories and propose guidelines for selecting a suitable category based on the development context. Additionally, we report common evaluation strategies including metrics, human evaluations and dataset employed, aiming to assist the development of future methods. We believe this survey will serve researchers, practitioners, and domain experts in comprehending and advancing this innovative field.
arxiv情報
著者 | Eleonora Poeta,Gabriele Ciravegna,Eliana Pastor,Tania Cerquitelli,Elena Baralis |
発行日 | 2023-12-20 11:27:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google