要約
タイトル:説明可能なAIの範疇的な基礎:構造と意味の一元的な形式体系
要約:
– 説明可能AI(XAI)は、AIモデルの展開に関連する倫理的および法的問題に答えることを目的としています。
– しかし、ドメイン固有のレビューの大部分は、さえ「説明」という用語にはまだ正確な定義がないことを考慮して、分野の主要な概念の数学的基礎が必要であると強く主張しています。
– これらのレビューはまた、説明可能AIのための健全で一元的な形式体系の必要性を主張し、不適切な問題の発生を避け、急速に成長する知識の体系を扱うために研究者を支援することを目的としています。
– この論文は、一元的なXAI理論を形式化することで、このギャップを埋めようとする初めての試みであるとしています。
– 特に、圏論の枠組みを用い、フィードバックモノイダルカテゴリを使用して、説明可能AIのすべての必須用語の形式的な定義を提供します。
– そして、提案された構造に従って分野のタクソノミーを提案し、導入された理論を使用して、現在文献で研究されているすべての主要なXAIシステムのクラスを分類する方法を示します。
– 要するに、この論文で提案されたXAIの基礎は、将来の研究路線を適切に枠組みとするための重要なツールであり、この分野に新しく参入する研究者にとって貴重なガイダンスです。
要約(オリジナル)
Explainable AI (XAI) aims to answer ethical and legal questions associated with the deployment of AI models. However, a considerable number of domain-specific reviews highlight the need of a mathematical foundation for the key notions in the field, considering that even the term ‘explanation’ still lacks a precise definition. These reviews also advocate for a sound and unifying formalism for explainable AI, to avoid the emergence of ill-posed questions, and to help researchers navigate a rapidly growing body of knowledge. To the authors knowledge, this paper is the first attempt to fill this gap by formalizing a unifying theory of XAI. Employing the framework of category theory, and feedback monoidal categories in particular, we first provide formal definitions for all essential terms in explainable AI. Then we propose a taxonomy of the field following the proposed structure, showing how the introduced theory can be used to categorize all the main classes of XAI systems currently studied in literature. In summary, the foundation of XAI proposed in this paper represents a significant tool to properly frame future research lines, and a precious guidance for new researchers approaching the field.
arxiv情報
著者 | Pietro Barbiero,Stefano Fioravanti,Francesco Giannini,Alberto Tonda,Pietro Lio,Elena Di Lavore |
発行日 | 2023-04-27 11:10:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI