Should XAI Nudge Human Decisions with Explanation Biasing?

要約

このペーパーでは、ユーザーをより良い意思決定に導くことを目的として、Explainable AI (XAI) からの説明に自動バイアスを導入するアプローチである Nudge-XAI のこれまでのトライアルをレビューし、利点と課題について説明します。
Nudge-XAIは、説明や強調による影響を予測するユーザーモデルを使用し、AIが提案する決定に強制することなくユーザーを誘導しようとします。
このナッジ設計により、ユーザーの自律性が強化され、ユーザーの完全な同意なしに AI が意思決定を行うことに伴うリスクが軽減され、ユーザーが AI の失敗を回避できるようになると期待されています。
Nudge-XAI の可能性を議論するために、この論文ではクラスター分析を使用した以前の実験結果の事後調査を報告します。
この結果は、Nudge-XAI に応じたユーザーの行動の多様性を示しており、ユーザーの自律性を高めるという私たちの目的を裏付けています。
ただし、AI を信頼せず、AI の提案に反して誤った決定を下すユーザーの課題も浮き彫りにしており、このアプローチをより一般的に機能させるには、ナッジの強さを個別に調整する必要があることを示唆しています。

要約(オリジナル)

This paper reviews our previous trials of Nudge-XAI, an approach that introduces automatic biases into explanations from explainable AIs (XAIs) with the aim of leading users to better decisions, and it discusses the benefits and challenges. Nudge-XAI uses a user model that predicts the influence of providing an explanation or emphasizing it and attempts to guide users toward AI-suggested decisions without coercion. The nudge design is expected to enhance the autonomy of users, reduce the risk associated with an AI making decisions without users’ full agreement, and enable users to avoid AI failures. To discuss the potential of Nudge-XAI, this paper reports a post-hoc investigation of previous experimental results using cluster analysis. The results demonstrate the diversity of user behavior in response to Nudge-XAI, which supports our aim of enhancing user autonomy. However, it also highlights the challenge of users who distrust AI and falsely make decisions contrary to AI suggestions, suggesting the need for personalized adjustment of the strength of nudges to make this approach work more generally.

arxiv情報

著者 Yosuke Fukuchi,Seiji Yamada
発行日 2024-06-11 14:53:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC パーマリンク