Explainable Artificial Intelligence: A Survey of Needs, Techniques, Applications, and Future Direction

要約

人工知能モデルは、そのブラックボックスの性質により、特に医療、金融、自動運転車などの安全性が重要な領域で重大な課題に直面しています。
Explainable Artificial Intelligence (XAI) は、これらのモデルがどのように意思決定と予測を行うかについての説明を提供し、透明性、説明責任、公平性を確保することでこれらの課題に対処します。
既存の研究では、XAI の基本概念、その一般原理、および XAI 技術の範囲が調査されています。
ただし、詳細な数学的表現、XAI モデルの設計方法論、およびその他の関連する側面を掘り下げた包括的なレビューがないため、文献にはギャップが残っています。
このペーパーでは、一般的な用語と定義、XAI の必要性、XAI の受益者、XAI メソッドの分類、さまざまなアプリケーション分野での XAI メソッドの適用を含む包括的な文献レビューを提供します。
この調査は、AI モデルの信頼性、透明性、説明責任、公平性の向上に関心のある XAI 研究者、XAI 実践者、AI モデル開発者、および XAI 受益者を対象としています。

要約(オリジナル)

Artificial intelligence models encounter significant challenges due to their black-box nature, particularly in safety-critical domains such as healthcare, finance, and autonomous vehicles. Explainable Artificial Intelligence (XAI) addresses these challenges by providing explanations for how these models make decisions and predictions, ensuring transparency, accountability, and fairness. Existing studies have examined the fundamental concepts of XAI, its general principles, and the scope of XAI techniques. However, there remains a gap in the literature as there are no comprehensive reviews that delve into the detailed mathematical representations, design methodologies of XAI models, and other associated aspects. This paper provides a comprehensive literature review encompassing common terminologies and definitions, the need for XAI, beneficiaries of XAI, a taxonomy of XAI methods, and the application of XAI methods in different application areas. The survey is aimed at XAI researchers, XAI practitioners, AI model developers, and XAI beneficiaries who are interested in enhancing the trustworthiness, transparency, accountability, and fairness of their AI models.

arxiv情報

著者 Melkamu Mersha,Khang Lam,Joseph Wood,Ali AlShami,Jugal Kalita
発行日 2025-01-13 00:29:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY パーマリンク