Information That Matters: Exploring Information Needs of People Affected by Algorithmic Decisions

要約

AI システムの説明では、アルゴリズムによる意思決定 (ADM) の影響を受ける人々の情報ニーズに対処することはほとんどありません。
伝達される情報と、影響を受ける利害関係者にとって重要な情報との間にこのギャップがあるため、AI 法などの規制枠組みの理解と遵守が妨げられる可能性があります。
このギャップに対処するために、私たちは「XAI 初心者質問バンク」を提示します。これは、2 つの ADM ユース ケース (雇用予測と健康監視) における影響を受ける利害関係者の情報ニーズのカタログであり、データ カテゴリ、システム コンテキスト、システム使用状況、およびシステム仕様をカバーしています。

情報ニーズは、参加者が質問に応じて説明を受けるインタビュー調査によって収集されました。
参加者はさらに、理解度や意思決定に対する自信について報告し、説明を受けた後に自信が高まる傾向がある一方、理解が不完全に感じられる理由が分からないなど、理解の課題にも直面していることが示されました。
説明は、システムのリスクと利点についての参加者の認識にさらに影響を与え、参加者はそれを確認したり、ユースケースに応じて変更したりしました。
リスクが高いと認識されている場合、参加者は、なぜ、どのような目的でシステムが導入されたのかなど、意図に関する説明に特に関心を示しました。
この取り組みにより、私たちは、ADM システムの導入を決定する際に、影響を受けるステークホルダーに関連する情報と課題の概要を提供することで、影響を受けるステークホルダーを説明可能性の中に含めることをサポートすることを目指しています。
最後に、影響を受ける利害関係者に対する将来の説明の設計に役立つ 6 つの重要な影響のリストに調査結果を要約します。

要約(オリジナル)

Explanations of AI systems rarely address the information needs of people affected by algorithmic decision-making (ADM). This gap between conveyed information and information that matters to affected stakeholders can impede understanding and adherence to regulatory frameworks such as the AI Act. To address this gap, we present the ‘XAI Novice Question Bank’: A catalog of affected stakeholders’ information needs in two ADM use cases (employment prediction and health monitoring), covering the categories data, system context, system usage, and system specifications. Information needs were gathered in an interview study where participants received explanations in response to their inquiries. Participants further reported their understanding and decision confidence, showing that while confidence tended to increase after receiving explanations, participants also met understanding challenges, such as being unable to tell why their understanding felt incomplete. Explanations further influenced participants’ perceptions of the systems’ risks and benefits, which they confirmed or changed depending on the use case. When risks were perceived as high, participants expressed particular interest in explanations about intention, such as why and to what end a system was put in place. With this work, we aim to support the inclusion of affected stakeholders into explainability by contributing an overview of information and challenges relevant to them when deciding on the adoption of ADM systems. We close by summarizing our findings in a list of six key implications that inform the design of future explanations for affected stakeholder audiences.

arxiv情報

著者 Timothée Schmude,Laura Koesten,Torsten Möller,Sebastian Tschiatschek
発行日 2024-01-26 09:09:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC パーマリンク