The role of causality in explainable artificial intelligence

要約

因果関係と説明可能な人工知能 (XAI) は、因果関係と説明の基礎となる概念が共通の古代のルーツを共有しているにもかかわらず、コンピューター サイエンスの別個の分野として発展してきました。
これは、これら 2 つの分野を共同でカバーするレビュー作業が不足していることによってさらに強化されます。
この論文では、因果関係と XAI がどのように、どの程度まで絡み合っているかを理解するために文献を調査します。
より正確には、私たちは 2 つの概念の間にどのような種類の関係が存在するのか、また、たとえば AI システムの信頼を構築する際に、それらからどのように利益を得ることができるのかを解明しようとしています。
その結果、3 つの主要な視点が特定されました。
最初のものでは、因果関係の欠如が現在の AI および XAI アプローチの主要な制限の 1 つであるとみなされ、説明の「最適な」形式が調査されます。
2 つ目は実用的な視点であり、追求に値する実験操作の特定を通じて、因果関係の調査のための科学的探求を促進するツールとして XAI を考慮しています。
最後に、3 番目の観点は、因果関係が 3 つの可能な方法で XAI に伝播するという考えを裏付けています。それは、XAI をサポートまたは改善するために因果関係から借用した概念を活用すること、説明可能性のために反事実を利用すること、そしてそれ自体を説明するものとして因果関係モデルにアクセスすることを考慮することです。
私たちの分析を補完するために、因果関係のあるタスクを自動化するために使用される関連ソフトウェア ソリューションも提供します。
私たちは、潜在的なドメイン ブリッジを強調し、潜在的な制限を明らかにすることで、因果関係と XAI の 2 つの分野の統一されたビューを提供する作業を行っていると信じています。

要約(オリジナル)

Causality and eXplainable Artificial Intelligence (XAI) have developed as separate fields in computer science, even though the underlying concepts of causation and explanation share common ancient roots. This is further enforced by the lack of review works jointly covering these two fields. In this paper, we investigate the literature to try to understand how and to what extent causality and XAI are intertwined. More precisely, we seek to uncover what kinds of relationships exist between the two concepts and how one can benefit from them, for instance, in building trust in AI systems. As a result, three main perspectives are identified. In the first one, the lack of causality is seen as one of the major limitations of current AI and XAI approaches, and the ‘optimal’ form of explanations is investigated. The second is a pragmatic perspective and considers XAI as a tool to foster scientific exploration for causal inquiry, via the identification of pursue-worthy experimental manipulations. Finally, the third perspective supports the idea that causality is propaedeutic to XAI in three possible manners: exploiting concepts borrowed from causality to support or improve XAI, utilizing counterfactuals for explainability, and considering accessing a causal model as explaining itself. To complement our analysis, we also provide relevant software solutions used to automate causal tasks. We believe our work provides a unified view of the two fields of causality and XAI by highlighting potential domain bridges and uncovering possible limitations.

arxiv情報

著者 Gianluca Carloni,Andrea Berti,Sara Colantonio
発行日 2023-09-18 16:05:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, I.2 パーマリンク