要約
効率と信頼性の向上により、自律システムはさまざまなタスクで人間にとって貴重なアシスタントになりつつあります。
ロボット支援配信のコンテキストでは、ロボットのパフォーマンスと信頼の修復戦略が人間の信頼にどのように影響するかを調査します。
このタスクでは、二次タスクを処理しながら、人間はロボットを送信して自律的に配信するか、手動で制御することを選択できます。
調査された信頼修理戦略には、短い説明と長い説明、謝罪と約束、否定が含まれます。
人間の参加者からのデータを使用して、入出力Hidden Markovモデル(IOHMM)を使用して人間の行動をモデル化して、信頼と人間の行動確率のダイナミクスをキャプチャします。
私たちの調査結果は、人間が信頼が高いときにロボットを自律的に展開する可能性が高いことを示しています。
さらに、州の移行の推定では、長い説明が失敗後の信頼を修復するのに最も効果的であることが示されていますが、拒否は信頼の損失を防ぐのに最も効果的です。
また、モデルによって生成された信頼の推定値は、自己報告された信頼の値に対して同型であり、それらを解釈可能にしていることを実証します。
このモデルは、自律システムにおける人間の信頼のリアルタイム調整を促進する最適なポリシーを開発するための基礎を築きます。
要約(オリジナル)
With increasing efficiency and reliability, autonomous systems are becoming valuable assistants to humans in various tasks. In the context of robot-assisted delivery, we investigate how robot performance and trust repair strategies impact human trust. In this task, while handling a secondary task, humans can choose to either send the robot to deliver autonomously or manually control it. The trust repair strategies examined include short and long explanations, apology and promise, and denial. Using data from human participants, we model human behavior using an Input-Output Hidden Markov Model (IOHMM) to capture the dynamics of trust and human action probabilities. Our findings indicate that humans are more likely to deploy the robot autonomously when their trust is high. Furthermore, state transition estimates show that long explanations are the most effective at repairing trust following a failure, while denial is most effective at preventing trust loss. We also demonstrate that the trust estimates generated by our model are isomorphic to self-reported trust values, making them interpretable. This model lays the groundwork for developing optimal policies that facilitate real-time adjustment of human trust in autonomous systems.
arxiv情報
著者 | Dong Hae Mangalindan,Karthik Kandikonda,Ericka Rovira,Vaibhav Srivastava |
発行日 | 2025-06-12 16:49:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google