要約
人工知能 (AI) システムがさまざまな分野の意思決定にますます影響を与えるにつれ、望ましくない結果に対する責任を帰属させる必要性が不可欠になっていますが、人間と AI の間の複雑な相互作用によって複雑化しています。
実際の因果関係と Shapley 値に基づいた既存の帰属手法は、結果への貢献度が高いエージェントを不当に責める傾向があり、責任ある AI 基準と一致しない可能性のある現実世界の非難に値する尺度に依存しています。
この論文では、構造的因果モデル (SCM) を使用して、人間と AI システムの責任を体系的に帰属させ、エージェントの期待される認識レベルを説明するために反事実的な推論を採用しながら、全体的な非難適格性を測定する因果関係のフレームワークを紹介します。
2 つのケーススタディは、人間と AI の多様なコラボレーション シナリオにおけるフレームワークの適応性を示しています。
要約(オリジナル)
As Artificial Intelligence (AI) systems increasingly influence decision-making across various fields, the need to attribute responsibility for undesirable outcomes has become essential, though complicated by the complex interplay between humans and AI. Existing attribution methods based on actual causality and Shapley values tend to disproportionately blame agents who contribute more to an outcome and rely on real-world measures of blameworthiness that may misalign with responsible AI standards. This paper presents a causal framework using Structural Causal Models (SCMs) to systematically attribute responsibility in human-AI systems, measuring overall blameworthiness while employing counterfactual reasoning to account for agents’ expected epistemic levels. Two case studies illustrate the framework’s adaptability in diverse human-AI collaboration scenarios.
arxiv情報
著者 | Yahang Qi,Bernhard Schölkopf,Zhijing Jin |
発行日 | 2024-11-05 17:17:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google