Human-Modeling in Sequential Decision-Making: An Analysis through the Lens of Human-Aware AI

要約

「人間を意識する」は、人間と連携して動作するように設計された特定の種類の AI システムを説明するために使用される一般的なキーワードになっています。
「人間認識」というラベルを使用する作品間には驚くべきレベルの一貫性が存在しますが、この用語自体はほとんど理解されていないままです。
この研究では、人間が認識する AI システムを構成するものについて遡及的に説明を提供しようとします。
人間を認識する AI は設計指向のパラダイムであり、対話する可能性のある人間をモデル化する必要性に焦点を当てていることがわかります。
さらに、このパラダイムは、これらのシステムが人間と行う可能性のある相互作用の種類を理解し、分類するための直感的な次元を提供してくれることがわかります。
私たちは、これらの側面を、何らかの形のヒューマン モデリングを目的とするヒューマン AI システムに関連する研究の現在の状況を理解し、検討するためのツールとして使用することによって、これらの側面の教育的価値を示します。
ワークショップの論文の範囲に合わせるために、私たちは特に、連続的な意思決定を扱い、過去 3 年間に主要な AI カンファレンスで発表された論文にレビューを絞り込みました。
私たちの分析は、現在見落とされている潜在的な研究問題の領域を特定するのに役立ちます。
私たちは、これらの作品が社会科学の結果をどの程度明示的に参照しているか、またシステムを検証するために実際にユーザー調査を行っているかどうかについて追加の分析を実行します。
これらの作品で使用されるさまざまな AI 手法についても説明します。

要約(オリジナル)

‘Human-aware’ has become a popular keyword used to describe a particular class of AI systems that are designed to work and interact with humans. While there exists a surprising level of consistency among the works that use the label human-aware, the term itself mostly remains poorly understood. In this work, we retroactively try to provide an account of what constitutes a human-aware AI system. We see that human-aware AI is a design-oriented paradigm, one that focuses on the need for modeling the humans it may interact with. Additionally, we see that this paradigm offers us intuitive dimensions to understand and categorize the kinds of interactions these systems might have with humans. We show the pedagogical value of these dimensions by using them as a tool to understand and review the current landscape of work related to human-AI systems that purport some form of human modeling. To fit the scope of a workshop paper, we specifically narrowed our review to papers that deal with sequential decision-making and were published in a major AI conference in the last three years. Our analysis helps identify the space of potential research problems that are currently being overlooked. We perform additional analysis on the degree to which these works make explicit reference to results from social science and whether they actually perform user-studies to validate their systems. We also provide an accounting of the various AI methods used by these works.

arxiv情報

著者 Silvia Tulli,Stylianos Loukas Vasileiou,Sarath Sreedharan
発行日 2024-05-13 14:17:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO, I.2 パーマリンク