要約
AI はさまざまな領域でますます一般的になりつつあります。
しかし、高度な AI ベースのシステムはブラックボックス化されていることが多く、意思決定ロジックが不透明になるため、ユーザーは推奨事項に従うことが難しいと感じています。
研究者は基盤となる機械学習モデルの透明性を高めるために Explainable AI (XAI) を研究していますが、どのような種類の説明が効果的であるか、またコンプライアンスを高めるその他の要因は不明です。
これらの要因の相互作用をより深く理解するために、AI と 2 つの異なるタイプの XAI の推奨事項を提示された 562 人の参加者を対象に実験を実施しました。
XAI の導入によりユーザーのコンプライアンスは向上しますが、AI リテラシーにも影響されることがわかりました。
また、AI リテラシー XAI とユーザーのコンプライアンスとの関係は、ユーザーの AI メンタル モデルによって媒介されることもわかりました。
私たちの研究は、XAI を利用した AI ベースのシステムの設計を成功させるためにいくつかの意味を持ちます。
要約(オリジナル)
AI is becoming increasingly common across different domains. However, as sophisticated AI-based systems are often black-boxed, rendering the decision-making logic opaque, users find it challenging to comply with their recommendations. Although researchers are investigating Explainable AI (XAI) to increase the transparency of the underlying machine learning models, it is unclear what types of explanations are effective and what other factors increase compliance. To better understand the interplay of these factors, we conducted an experiment with 562 participants who were presented with the recommendations of an AI and two different types of XAI. We find that users’ compliance increases with the introduction of XAI but is also affected by AI literacy. We also find that the relationships between AI literacy XAI and users’ compliance are mediated by the users’ mental model of AI. Our study has several implications for successfully designing AI-based systems utilizing XAI.
arxiv情報
著者 | Niklas Kühl,Christian Meske,Maximilian Nitsche,Jodie Lobana |
発行日 | 2024-06-18 14:28:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google