Requirements for Explainability and Acceptance of Artificial Intelligence in Collaborative Work

要約

航空管制などの安全性が重要な状況における人工知能 (AI) の普及の増加により、実用的かつ効率的で、人間にある程度説明可能で信頼され受け入れられるシステムが生まれています。
現在の構造化文献分析では、AI の説明可能性と受け入れの要件に関する n = 236 の論文を調査しています。
結果には、人々が AI を説明可能であると認識するために必要な情報、AI を受け入れるために必要な情報、AI への信頼を促進する表現と対話方法に関する n = 48 の記事の包括的なレビューが含まれます。
結果は、ユーザーの 2 つの主要なグループが、モデルの内部操作に関する情報を必要とする開発者と、AI の結果または動作に関する情報を必要とするエンド ユーザーであることを示しています。
ユーザーの情報ニーズは具体性、複雑さ、緊急性によって異なり、コンテキスト、ドメイン知識、ユーザーの認知リソースを考慮する必要があります。
AI システムが受け入れられるかどうかは、システムの機能とパフォーマンス、プライバシーと倫理的配慮に関する情報に加え、個人の好みに合わせた目標をサポートする情報やシステムへの信頼を確立するための情報に依存します。
システムの制限と潜在的な障害に関する情報は、受け入れと信頼を高めることができます。
信頼できる対話方法とは、自然言語、音声、テキスト、およびグラフ、チャート、アニメーションなどの視覚表現を含む、人間に似たものです。
私たちの結果は、将来開発される人間中心の AI システムに重大な影響を及ぼします。
したがって、これらは、ユーザーのニーズをアプリケーション固有にさらに調査するための入力として適しています。

要約(オリジナル)

The increasing prevalence of Artificial Intelligence (AI) in safety-critical contexts such as air-traffic control leads to systems that are practical and efficient, and to some extent explainable to humans to be trusted and accepted. The present structured literature analysis examines n = 236 articles on the requirements for the explainability and acceptance of AI. Results include a comprehensive review of n = 48 articles on information people need to perceive an AI as explainable, the information needed to accept an AI, and representation and interaction methods promoting trust in an AI. Results indicate that the two main groups of users are developers who require information about the internal operations of the model and end users who require information about AI results or behavior. Users’ information needs vary in specificity, complexity, and urgency and must consider context, domain knowledge, and the user’s cognitive resources. The acceptance of AI systems depends on information about the system’s functions and performance, privacy and ethical considerations, as well as goal-supporting information tailored to individual preferences and information to establish trust in the system. Information about the system’s limitations and potential failures can increase acceptance and trust. Trusted interaction methods are human-like, including natural language, speech, text, and visual representations such as graphs, charts, and animations. Our results have significant implications for future human-centric AI systems being developed. Thus, they are suitable as input for further application-specific investigations of user needs.

arxiv情報

著者 Sabine Theis,Sophie Jentzsch,Fotini Deligiannaki,Charles Berro,Arne Peter Raulf,Carmen Bruder
発行日 2023-06-27 11:36:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.HC パーマリンク