要約
高齢者や障害のある人向けのロボット アシスタントは、共同作業でユーザーと対話する必要があります。
これらのシステムの中核コンポーネントは、タスクを観察して評価し、人間の状態とその意図を推測してロボットに最適な行動方針を選択することを仕事とする対話マネージャーです。
このドメインのデータは希薄であるため、このようなマルチモーダル システムのポリシーは手作業で作成されることがよくあります。
インタラクションの複雑さが増すにつれて、このプロセスはスケーラブルではなくなります。
この論文では、ロボットのポリシーを学習するための強化学習 (RL) アプローチを提案します。
対話システムとは対照的に、当社のエージェントは人間のデータを使用して開発されたシミュレーターでトレーニングされており、言語や身体的動作などの複数のモダリティに対処できます。
私たちは、ユーザーとの対話におけるシステムのパフォーマンスを評価するために人体調査を実施しました。
私たちが設計したシステムは、実際のユーザーが使用すると有望な暫定結果を示します。
要約(オリジナル)
Robot assistants for older adults and people with disabilities need to interact with their users in collaborative tasks. The core component of these systems is an interaction manager whose job is to observe and assess the task, and infer the state of the human and their intent to choose the best course of action for the robot. Due to the sparseness of the data in this domain, the policy for such multi-modal systems is often crafted by hand; as the complexity of interactions grows this process is not scalable. In this paper, we propose a reinforcement learning (RL) approach to learn the robot policy. In contrast to the dialog systems, our agent is trained with a simulator developed by using human data and can deal with multiple modalities such as language and physical actions. We conducted a human study to evaluate the performance of the system in the interaction with a user. Our designed system shows promising preliminary results when it is used by a real user.
arxiv情報
著者 | Afagh Mehri Shervedani,Siyu Li,Natawut Monaikul,Bahareh Abbasi,Barbara Di Eugenio,Milos Zefran |
発行日 | 2024-08-23 16:42:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google