要約
意思決定支援システムで人工知能 (AI) を活用する取り組みは、技術の進歩に不釣り合いに焦点を当てており、アルゴリズムの出力と人間の期待との整合性が見落とされることがよくあります。
これに対処するために、Explainable AI は、より人間中心の観点から AI 開発を促進します。
人間を支援するために AI がどのような情報を提供すべきかを決定することは重要ですが、その情報がどのように提示されるかが重要です。
たとえば、一連の推奨と解釈の要請も同様に重要です。
このため、AI ベースの意思決定支援の重要なコンポーネントとして、人間と AI の相互作用をより正確に研究する必要性が生じています。
いくつかの実証研究では、インタラクションがさまざまな形をとる複数のアプリケーション ドメインで人間と AI のインタラクションを評価していますが、人間と AI のインタラクション プロトコルを説明するための共通の語彙はまだありません。
このギャップに対処するために、我々は AI 支援による意思決定に関する文献を体系的にレビューし、厳選された 105 件の論文を分析した結果について説明します。この結果は、人間と AI の対話性のさまざまなモードを描写する対話パターンの分類法の導入の根拠となります。
現在のインタラクションは単純化されたコラボレーション パラダイムによって支配されており、真のインタラクティブな機能に対するサポートは比較的少ないと報告されています。
私たちの分類は、AI との対話性が現在意思決定の場面でどのようにサポートされているかを理解し、対話設計の意図的な選択を促進するための貴重なツールとして機能します。
要約(オリジナル)
Efforts in levering Artificial Intelligence (AI) in decision support systems have disproportionately focused on technological advancements, often overlooking the alignment between algorithmic outputs and human expectations. To address this, explainable AI promotes AI development from a more human-centered perspective. Determining what information AI should provide to aid humans is vital, however, how the information is presented, e. g., the sequence of recommendations and the solicitation of interpretations, is equally crucial. This motivates the need to more precisely study Human-AI interaction as a pivotal component of AI-based decision support. While several empirical studies have evaluated Human-AI interactions in multiple application domains in which interactions can take many forms, there is not yet a common vocabulary to describe human-AI interaction protocols. To address this gap, we describe the results of a systematic review of the AI-assisted decision making literature, analyzing 105 selected articles, which grounds the introduction of a taxonomy of interaction patterns that delineate various modes of human-AI interactivity. We find that current interactions are dominated by simplistic collaboration paradigms and report comparatively little support for truly interactive functionality. Our taxonomy serves as a valuable tool to understand how interactivity with AI is currently supported in decision-making contexts and foster deliberate choices of interaction designs.
arxiv情報
著者 | Catalina Gomez,Sue Min Cho,Shichang Ke,Chien-Ming Huang,Mathias Unberath |
発行日 | 2023-10-31 13:21:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google