要約
人間とロボットの相互作用では、人間とロボットのエージェントは、環境、共有タスク、およびお互いの内部メンタルモデルを維持しています。
これらの表現の正確性は、各エージェントの心の理論を実行する能力、つまりチームメイトの知識、好み、意図を理解する能力に依存します。
メンタルモデルがタスクの実行に影響を与える範囲まで分岐すると、相互作用の分解を防ぐために調整が必要になります。
双方向のメンタルモデルの調整のフレームワークを提案し、半構造化された自然言語の対話を通じて整合を促進するために大規模な言語モデルを活用します。
私たちのフレームワークは、人間またはロボットエージェントのいずれかが他のエージェントが整列する正しいモデルから始まるという以前のモデル調整作業の仮定を緩和します。
私たちのフレームワークを通じて、人間とロボットの両方は、相互作用中に行方不明のタスク関連のコンテキストを特定して伝えることができ、共有されたメンタルモデルに向かって繰り返し進行します。
要約(オリジナル)
In human-robot interactions, human and robot agents maintain internal mental models of their environment, their shared task, and each other. The accuracy of these representations depends on each agent’s ability to perform theory of mind, i.e. to understand the knowledge, preferences, and intentions of their teammate. When mental models diverge to the extent that it affects task execution, reconciliation becomes necessary to prevent the degradation of interaction. We propose a framework for bi-directional mental model reconciliation, leveraging large language models to facilitate alignment through semi-structured natural language dialogue. Our framework relaxes the assumption of prior model reconciliation work that either the human or robot agent begins with a correct model for the other agent to align to. Through our framework, both humans and robots are able to identify and communicate missing task-relevant context during interaction, iteratively progressing toward a shared mental model.
arxiv情報
著者 | Nina Moorman,Michelle Zhao,Matthew B. Luebbers,Sanne Van Waveren,Reid Simmons,Henny Admoni,Sonia Chernova,Matthew Gombolay |
発行日 | 2025-03-10 17:13:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google