要約
AI 支援による意思決定において、人間が関与することの主な約束は、人間が AI システムの誤った推奨事項を無効にして AI システムを補完できるようにすることです。
しかし実際には、人間が AI の推奨事項の正しさを評価できず、その結果、間違ったアドバイスに固執したり、正しいアドバイスを無視したりすることがよく見られます。
AI の推奨事項に依存するさまざまな方法は、意思決定の質に直接的かつ明確な影響を与えます。
残念ながら、AI 支援による意思決定に関する現在の文献では、信頼性と意思決定の質が不適切に混同されていることがよくあります。
この研究では、信頼性と意思決定の質の関係を解きほぐして形式化し、人間と AI の相補性が達成できる条件を特徴づけます。
信頼性と意思決定の質が相互にどのように関係しているかを説明するために、視覚的なフレームワークを提案し、説明などの介入の効果を含む経験的発見を解釈するためのその有用性を実証します。
全体として、私たちの研究は、AI 支援による意思決定において、依存行動と意思決定の質を区別することの重要性を強調しています。
要約(オリジナル)
In AI-assisted decision-making, a central promise of having a human-in-the-loop is that they should be able to complement the AI system by overriding its wrong recommendations. In practice, however, we often see that humans cannot assess the correctness of AI recommendations and, as a result, adhere to wrong or override correct advice. Different ways of relying on AI recommendations have immediate, yet distinct, implications for decision quality. Unfortunately, reliance and decision quality are often inappropriately conflated in the current literature on AI-assisted decision-making. In this work, we disentangle and formalize the relationship between reliance and decision quality, and we characterize the conditions under which human-AI complementarity is achievable. To illustrate how reliance and decision quality relate to one another, we propose a visual framework and demonstrate its usefulness for interpreting empirical findings, including the effects of interventions like explanations. Overall, our research highlights the importance of distinguishing between reliance behavior and decision quality in AI-assisted decision-making.
arxiv情報
著者 | Jakob Schoeffer,Johannes Jakubik,Michael Voessing,Niklas Kuehl,Gerhard Satzger |
発行日 | 2024-08-23 16:06:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google