要約
Theory of Mind (ToM) は、精神状態を他者のせいにする能力を人間に与える基本的な認知アーキテクチャです。
人間は、他者の行動を観察することで他者の欲望、信念、意図を推測し、対人コミュニケーションやチームのコラボレーションをより良くするために行動を調整します。
この論文では、人間が別の人間の敵に対してロボットと協力するマルチエージェント環境における心の理論を用いて、信頼を意識したロボットのポリシーを調査しました。
私たちは、チームのパフォーマンスだけに焦点を当てることによって、ロボットが逆心理トリックに頼る可能性があり、それが信頼の維持に重大な脅威をもたらす可能性があることを示しました。
ロボットの欺瞞的な行動を発見したとき、ロボットに対する人間の信頼は崩壊します。
この問題を軽減するために、ロボットの心の理論モデルを採用して、真の信念と誤った信念 (ToM の重要な要素) を含む人間の信頼信念を推測します。
私たちは、ロボットの逆心理学による人間の信頼崩壊の回避とバランスをとることを目的とした、ロボットのポリシー学習をガイドするために、さまざまな信頼信念に基づいた動的な信頼を意識した報酬関数を設計しました。
実験結果は、人間とロボットの信頼にとって ToM ベースのロボット ポリシーの重要性と、マルチエージェント インタラクション設定におけるロボット ToM ベースのロボット ポリシーの有効性を示しています。
要約(オリジナル)
Theory of Mind (ToM) is a fundamental cognitive architecture that endows humans with the ability to attribute mental states to others. Humans infer the desires, beliefs, and intentions of others by observing their behavior and, in turn, adjust their actions to facilitate better interpersonal communication and team collaboration. In this paper, we investigated trust-aware robot policy with the theory of mind in a multiagent setting where a human collaborates with a robot against another human opponent. We show that by only focusing on team performance, the robot may resort to the reverse psychology trick, which poses a significant threat to trust maintenance. The human’s trust in the robot will collapse when they discover deceptive behavior by the robot. To mitigate this problem, we adopt the robot theory of mind model to infer the human’s trust beliefs, including true belief and false belief (an essential element of ToM). We designed a dynamic trust-aware reward function based on different trust beliefs to guide the robot policy learning, which aims to balance between avoiding human trust collapse due to robot reverse psychology. The experimental results demonstrate the importance of the ToM-based robot policy for human-robot trust and the effectiveness of our robot ToM-based robot policy in multiagent interaction settings.
arxiv情報
著者 | Chuang Yu,Baris Serhan,Angelo Cangelosi |
発行日 | 2023-11-07 23:55:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google