要約
自動推論は、若いながら急速に成長している説明可能な人工知能 (XAI) 分野の重要なテクノロジーです。
説明可能性は、単なる予測精度や堅牢性を超えて、人工知能システムに対する信頼を構築するのに役立ちます。
この論文では、説明の生成と選択のための自動推論と機械学習を組み合わせた科学的発見のサイクルを提案します。
社会学と認知科学からの洞察に基づいた説明選択問題の分類法を紹介します。
これらの選択基準は既存の概念を包含し、新しい特性でそれらを拡張します。
要約(オリジナル)
Automated reasoning is a key technology in the young but rapidly growing field of Explainable Artificial Intelligence (XAI). Explanability helps build trust in artificial intelligence systems beyond their mere predictive accuracy and robustness. In this paper, we propose a cycle of scientific discovery that combines machine learning with automated reasoning for the generation and the selection of explanations. We present a taxonomy of explanation selection problems that draws on insights from sociology and cognitive science. These selection criteria subsume existing notions and extend them with new properties.
arxiv情報
著者 | Markus Iser |
発行日 | 2024-08-06 08:52:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google