要約
私たちの目標は、信頼の進化をモデル化して実験的に評価し、動的な環境における人間とロボットのチームの将来の信念と行動を予測することです。
研究によると、人間とロボットのチームでチームメンバー間の信頼を維持することが、チームのパフォーマンスを成功させるために不可欠であることがわかっています。
研究によると、信頼は過去の経験や将来の行動に複雑に関連する多次元の潜在的な存在です。
人間とロボットの協調タスクを採用し、POMDP フレームワークを使用してロボットに最適な支援を求める戦略を設計します。
このタスクでは、人間は環境内の物体を収集する自律移動マニピュレーターを監督します。
スーパーバイザーの仕事は、ロボットがそのタスクを安全に実行できるようにすることです。
ロボットは、物体の収集を試みるか、人間の支援を求めるかを選択できます。
人間のスーパーバイザーはロボットの活動を積極的に監視し、要求に応じて支援を提供し、ロボットが故障する可能性があると認識した場合には介入します。
この設定では、人間の信頼は隠れた状態であり、主な目的はチームのパフォーマンスを最適化することです。
人間とロボットのインタラクション実験を 2 セット実行します。
最初の実験からのデータは POMDP パラメーターを推定するために使用され、このパラメーターは 2 番目の実験で評価される最適な支援を求めるポリシーを計算するために使用されます。
推定された POMDP パラメーターは、ほとんどの参加者にとって、信頼性が低い場合、特に複雑さの高いタスクでは人間の介入が発生する可能性が高いことを示しています。
私たちの推定では、複雑なタスクで支援を求めるロボットの行動が人間の信頼にプラスの影響を与える可能性があることが示唆されています。
私たちの実験結果は、提案された信頼を意識したポリシーが、最適な信頼に依存しないポリシーよりも優れていることを示しています。
行動データのみを使用して得られた人間の信頼のモデル推定値と、収集された自己申告の信頼値を比較することにより、モデル推定値が自己申告の応答と同型であることを示します。
要約(オリジナル)
Our goal is to model and experimentally assess trust evolution to predict future beliefs and behaviors of human-robot teams in dynamic environments. Research suggests that maintaining trust among team members in a human-robot team is vital for successful team performance. Research suggests that trust is a multi-dimensional and latent entity that relates to past experiences and future actions in a complex manner. Employing a human-robot collaborative task, we design an optimal assistance-seeking strategy for the robot using a POMDP framework. In the task, the human supervises an autonomous mobile manipulator collecting objects in an environment. The supervisor’s task is to ensure that the robot safely executes its task. The robot can either choose to attempt to collect the object or seek human assistance. The human supervisor actively monitors the robot’s activities, offering assistance upon request, and intervening if they perceive the robot may fail. In this setting, human trust is the hidden state, and the primary objective is to optimize team performance. We execute two sets of human-robot interaction experiments. The data from the first experiment are used to estimate POMDP parameters, which are used to compute an optimal assistance-seeking policy evaluated in the second experiment. The estimated POMDP parameters reveal that, for most participants, human intervention is more probable when trust is low, particularly in high-complexity tasks. Our estimates suggest that the robot’s action of asking for assistance in high-complexity tasks can positively impact human trust. Our experimental results show that the proposed trust-aware policy is better than an optimal trust-agnostic policy. By comparing model estimates of human trust, obtained using only behavioral data, with the collected self-reported trust values, we show that model estimates are isomorphic to self-reported responses.
arxiv情報
著者 | Dong Hae Mangalindan,Ericka Rovira,Vaibhav Srivastava |
発行日 | 2024-10-27 16:24:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google