Why Don’t You Do Something About It? Outlining Connections between AI Explanations and User Actions

要約

タイトル:なぜ何か対策を取らないのか?AI解釈とユーザーの行動の関係を概説する

要約:
– XAI(説明可能なAI)システムの中心的な仮定は、説明がユーザーの知識を変え、彼らが複雑な社会技術環境で行動することができるようにするということである。
– しかしながら、説明はしばしば技術的な側面に基づいて組織化され、評価されることが多い。
– 先行研究は、説明で提供された情報とその結果のユーザーの行動との間のつながりを追跡する範囲で大きく異なる。
– 評価において中心となる行動を重視するためには、XAIコミュニティが説明が提供できる情報の範囲とそれに関連する行動をどのように認識しているかを理解することが重要である。
– 本論文では、説明で提示される情報とユーザーの行動に関する先行研究をマッピングするフレームワークを提案し、ユーザーに提供される情報について発見したギャップについて議論する。

要約(オリジナル)

A core assumption of explainable AI systems is that explanations change what users know, thereby enabling them to act within their complex socio-technical environments. Despite the centrality of action, explanations are often organized and evaluated based on technical aspects. Prior work varies widely in the connections it traces between information provided in explanations and resulting user actions. An important first step in centering action in evaluations is understanding what the XAI community collectively recognizes as the range of information that explanations can present and what actions are associated with them. In this paper, we present our framework, which maps prior work on information presented in explanations and user action, and we discuss the gaps we uncovered about the information presented to users.

arxiv情報

著者 Gennie Mansi,Mark Riedl
発行日 2023-05-10 16:39:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.HC パーマリンク