要約
説明生成フレームワークは、AI システムの決定を透明にして人間のユーザーが理解できるようにすることを目的としています。
しかし、不完全な情報と確率モデルによって特徴付けられる不確実な環境で説明を生成することは、依然として大きな課題です。
この論文では、確率的モノリシック説明とモデル調整説明を生成するための新しいフレームワークを提案します。
モノリシックな説明は、説明を受けるエージェントを考慮せずに説明の自己完結型の理由を提供しますが、モデル調整型説明では、説明を受けるエージェントの知識が考慮されます。
モノリシックな説明の場合、私たちのアプローチは確率論的論理を利用して不確実性を統合し、説明の確率を高めます。
モデル照合説明については、モデル照合問題の論理ベースの変形を確率的人間モデルを考慮して拡張するフレームワークを提案します。その目標は、説明と説明の間の矛盾を最小限に抑えながら、説明の確率を高める説明を見つけることです。
確率的人間モデル。
これらの説明の質を評価するための定量的な指標として、説明利得と説明力を導入します。
さらに、最小補正セットと最小不満足セットの間の二重性を利用して、確率論的な文脈で両方のタイプの説明を効率的に計算するアルゴリズムを提示します。
さまざまなベンチマークに関する広範な実験評価により、不確実性の下で説明を生成する際の私たちのアプローチの有効性と拡張性が実証されています。
要約(オリジナル)
Explanation generation frameworks aim to make AI systems’ decisions transparent and understandable to human users. However, generating explanations in uncertain environments characterized by incomplete information and probabilistic models remains a significant challenge. In this paper, we propose a novel framework for generating probabilistic monolithic explanations and model reconciling explanations. Monolithic explanations provide self-contained reasons for an explanandum without considering the agent receiving the explanation, while model reconciling explanations account for the knowledge of the agent receiving the explanation. For monolithic explanations, our approach integrates uncertainty by utilizing probabilistic logic to increase the probability of the explanandum. For model reconciling explanations, we propose a framework that extends the logic-based variant of the model reconciliation problem to account for probabilistic human models, where the goal is to find explanations that increase the probability of the explanandum while minimizing conflicts between the explanation and the probabilistic human model. We introduce explanatory gain and explanatory power as quantitative metrics to assess the quality of these explanations. Further, we present algorithms that exploit the duality between minimal correction sets and minimal unsatisfiable sets to efficiently compute both types of explanations in probabilistic contexts. Extensive experimental evaluations on various benchmarks demonstrate the effectiveness and scalability of our approach in generating explanations under uncertainty.
arxiv情報
著者 | Stylianos Loukas Vasileiou,William Yeoh,Alessandro Previti,Tran Cao Son |
発行日 | 2024-05-29 16:07:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google