Appropriate Reliance on AI Advice: Conceptualization and the Effect of Explanations

要約

タイトル:AIアドバイスの適切な信頼性:概念化と説明の効果

要約:

– AIアドバイスは、投資や医療の意思決定などでますます人気が高まっています。
– しかし、このアドバイスは通常完璧ではないため、意思決定者は実際にそのアドバイスを受け入れるかどうかの裁量を行う必要があります。
– 適切な信頼を決定するために、現在の適切な信頼に関する研究には共通の定義や操作測定コンセプトが欠けています。
– また、この行動に影響を与える要因を理解するための深い行動実験が行われていません。
– 本論文では、適切な信頼度(AoR)を基本的かつ定量的な2次元測定コンセプトとして提案します。
– AIアドバイスについて説明し、その効果を分析する研究モデルを開発します。
– 200人の参加者を対象とした実験では、これらの説明がAoRおよびAIアドバイスの効果にどのように影響するかを示します。
– この研究は、信頼行動の分析のための基本的なコンセプトや、AIアドバイザーの目的を持った設計に貢献します。

要約(オリジナル)

AI advice is becoming increasingly popular, e.g., in investment and medical treatment decisions. As this advice is typically imperfect, decision-makers have to exert discretion as to whether actually follow that advice: they have to ‘appropriately’ rely on correct and turn down incorrect advice. However, current research on appropriate reliance still lacks a common definition as well as an operational measurement concept. Additionally, no in-depth behavioral experiments have been conducted that help understand the factors influencing this behavior. In this paper, we propose Appropriateness of Reliance (AoR) as an underlying, quantifiable two-dimensional measurement concept. We develop a research model that analyzes the effect of providing explanations for AI advice. In an experiment with 200 participants, we demonstrate how these explanations influence the AoR, and, thus, the effectiveness of AI advice. Our work contributes fundamental concepts for the analysis of reliance behavior and the purposeful design of AI advisors.

arxiv情報

著者 Max Schemmer,Niklas Kühl,Carina Benz,Andrea Bartos,Gerhard Satzger
発行日 2023-04-13 08:50:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.HC パーマリンク