Mindful Explanations: Prevalence and Impact of Mind Attribution in XAI Research

要約

ユーザーが AI システムを注意深い独立したエージェントとして認識すると、これらのシステムを作成および設計した AI 専門家ではなく、ユーザーに責任を負わせることになります。
これまでのところ、「考える」などの心を表す動詞の使用によるこの責任の転換を説明が裏付けるかどうかは研究されていない。
心に帰属する説明の普及をより深く理解するために、私たちは Semantic Sc​​holar Open Research Corpus (S2ORC) の 3,533 件の説明可能な AI (XAI) 研究論文の AI 説明を分析します。
意味シフト検出の方法を使用して、心の帰属の 3 つの主要なタイプを特定します: (1) 比喩的 (例: 「学習する」または「予測する」)、(2) 認識 (例: 「考慮する」)、および (3) 主体性
(例:「決断を下す」)。
次に、199 人の参加者を対象としたビネットベースの実験で、心に帰属する説明が意識と責任に及ぼす影響を分析します。
精神に起因する説明を受けた参加者は、AI システムが引き起こす害を認識していると評価する可能性が高いことがわかりました。
さらに、心に帰属させる説明には責任を隠蔽する効果があった。AI 専門家の関与を考慮すると、心に帰属しない、または説明が与えられなかった参加者に対する AI 責任の評価が低下する。
対照的に、心に起因する説明を読んだ参加者は、AI 専門家の関与を考慮したにもかかわらず、依然として AI システムに責任があると考えていました。
まとめると、私たちの研究は、精神的帰属を減らし、人間の責任を明確に伝えるために、科学的文章で AI システムについての説明を慎重に表現する必要性を強調しています。

要約(オリジナル)

When users perceive AI systems as mindful, independent agents, they hold them responsible instead of the AI experts who created and designed these systems. So far, it has not been studied whether explanations support this shift in responsibility through the use of mind-attributing verbs like ‘to think’. To better understand the prevalence of mind-attributing explanations we analyse AI explanations in 3,533 explainable AI (XAI) research articles from the Semantic Scholar Open Research Corpus (S2ORC). Using methods from semantic shift detection, we identify three dominant types of mind attribution: (1) metaphorical (e.g. ‘to learn’ or ‘to predict’), (2) awareness (e.g. ‘to consider’), and (3) agency (e.g. ‘to make decisions’). We then analyse the impact of mind-attributing explanations on awareness and responsibility in a vignette-based experiment with 199 participants. We find that participants who were given a mind-attributing explanation were more likely to rate the AI system as aware of the harm it caused. Moreover, the mind-attributing explanation had a responsibility-concealing effect: Considering the AI experts’ involvement lead to reduced ratings of AI responsibility for participants who were given a non-mind-attributing or no explanation. In contrast, participants who read the mind-attributing explanation still held the AI system responsible despite considering the AI experts’ involvement. Taken together, our work underlines the need to carefully phrase explanations about AI systems in scientific writing to reduce mind attribution and clearly communicate human responsibility.

arxiv情報

著者 Susanne Hindennach,Lei Shi,Filip Miletić,Andreas Bulling
発行日 2023-12-19 12:49:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク