要約
デュアルタスクのパラダイムを使用して、ロボットの動作、パフォーマンス、二次タスクの導入が人間の信頼と関与にどのように影響するかを調査します。
私たちの研究では、人間のスーパーバイザーは、物体収集タスクを実行するモバイルマニピュレーターを監督しながら、同時にターゲット追跡タスクに従事します。
ロボットは自律的に物体を収集することも、人間の助けを求めることもできます。
人間の監視者もロボットに依存するか中断するかを選択できます。
初期実験のデータを使用し、線形力学システム (LDS) を使用して人間の信頼と関与のダイナミクスをモデル化します。
さらに、人間がロボットに依存する確率を定義する人間の行動モデルを開発します。
私たちのモデルは、複雑な収集タスク中に参加者の信頼と関与が低い場合、参加者はロボットの操作を中断する可能性が高いことを示唆しています。
モデル予測制御 (MPC) を使用して、最適な支援要請ポリシーを設計します。
評価実験では、ほとんどの参加者にとって、ベースライン ポリシーよりも MPC ポリシーのパフォーマンスが優れていることが実証されています。
要約(オリジナル)
Using a dual-task paradigm, we explore how robot actions, performance, and the introduction of a secondary task influence human trust and engagement. In our study, a human supervisor simultaneously engages in a target-tracking task while supervising a mobile manipulator performing an object collection task. The robot can either autonomously collect the object or ask for human assistance. The human supervisor also has the choice to rely upon or interrupt the robot. Using data from initial experiments, we model the dynamics of human trust and engagement using a linear dynamical system (LDS). Furthermore, we develop a human action model to define the probability of human reliance on the robot. Our model suggests that participants are more likely to interrupt the robot when their trust and engagement are low during high-complexity collection tasks. Using Model Predictive Control (MPC), we design an optimal assistance-seeking policy. Evaluation experiments demonstrate the superior performance of the MPC policy over the baseline policy for most participants.
arxiv情報
著者 | Dong Hae Mangalindan,Vaibhav Srivastava |
発行日 | 2024-06-11 18:46:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google