要約
シェアード・オートノミーは、ロボットが様々な自律性レベルで動作できるようにする柔軟な枠組みとして機能し、人間の監視を最小限に抑えながら効率的にタスクを実行することを可能にする。しかし、人間はロボットの自律的な意思決定能力に対して、知覚されたリスクや信頼の欠如のために怯えるかもしれない。本論文では、ロボットが自律性レベルをシームレスに調整できるようにすることで、チームのパフォーマンスを最適化し、人間の協力者の間でロボットが受け入れられるようにする、信頼が維持された共有自律性戦略を提案する。関係事象モデリングのフレームワークをベイズ学習技術で強化することにより、本論文は、人間とロボットのチーム内のタイムスタンプされた関係事象のみに基づいて、人間の信頼を動的に推論することを可能にする。人間とロボットのチームにおける信頼の発展とキャリブレーションに関する縦断的な視点を採用することで、提案する共有自律性戦略は、ロボットが人間の信頼に受動的に適応するだけでなく、信頼違反が発生した場合に積極的に信頼修復に参加することで、人間の信頼を維持することを保証する。我々は、人間とロボットの協調的な捜索と救助のシナリオに関するユーザー研究を通じて、提案されたアプローチの有効性を検証する。客観的および主観的評価により、タスク実行とユーザ受容性の両方において、遠隔操作よりも優れていることが実証された。
要約(オリジナル)
Shared autonomy functions as a flexible framework that empowers robots to operate across a spectrum of autonomy levels, allowing for efficient task execution with minimal human oversight. However, humans might be intimidated by the autonomous decision-making capabilities of robots due to perceived risks and a lack of trust. This paper proposed a trust-preserved shared autonomy strategy that grants robots to seamlessly adjust their autonomy level, striving to optimize team performance and enhance their acceptance among human collaborators. By enhancing the Relational Event Modeling framework with Bayesian learning techniques, this paper enables dynamic inference of human trust based solely on time-stamped relational events within human-robot teams. Adopting a longitudinal perspective on trust development and calibration in human-robot teams, the proposed shared autonomy strategy warrants robots to preserve human trust by not only passively adapting to it but also actively participating in trust repair when violations occur. We validate the effectiveness of the proposed approach through a user study on human-robot collaborative search and rescue scenarios. The objective and subjective evaluations demonstrate its merits over teleoperation on both task execution and user acceptability.
arxiv情報
著者 | Yingke Li,Fumin Zhang |
発行日 | 2023-11-03 16:13:33+00:00 |
arxivサイト | arxiv_id(pdf) |