要約
人間とロボットの協調ナビゲーションは、情報が不完全な環境では困難である。我々はCoNav-Mazeを紹介する。CoNav-Mazeは、ロボットが局所知覚を用いてナビゲートし、人間のオペレータが不正確な地図に基づいてガイダンスを提供するシミュレーションロボット環境である。ロボットはカメラビューを共有することで、オペレータの環境理解を向上させることができる。効率的な人間とロボットの協調を可能にするために、我々は自律的な移動と有益なコミュニケーションのバランスをとるオンライン計画アルゴリズムである情報利得モンテカルロ木探索(IG-MCTS)を提案する。IG-MCTSの中心となるのは、人間がロボットとのコミュニケーションからどのように情報を抽出するかを推定するニューラル人間知覚ダイナミクスモデルである。我々は、CoNav-Mazeのクラウドソースマッピングタスクを通じてデータセットを収集し、データ補強を伴う完全畳み込みアーキテクチャを用いてこのモデルを訓練する。ユーザースタディにより、IG-MCTSは遠隔操作や指示に従うベースラインを凌駕し、視線追跡メトリクスから明らかなように、有意に少ないコミュニケーションと低い人間の認知負荷で同等のタスク性能を達成することが示された。
要約(オリジナル)
Human-robot cooperative navigation is challenging in environments with incomplete information. We introduce CoNav-Maze, a simulated robotics environment where a robot navigates using local perception while a human operator provides guidance based on an inaccurate map. The robot can share its camera views to improve the operator’s understanding of the environment. To enable efficient human-robot cooperation, we propose Information Gain Monte Carlo Tree Search (IG-MCTS), an online planning algorithm that balances autonomous movement and informative communication. Central to IG-MCTS is a neural human perception dynamics model that estimates how humans distill information from robot communications. We collect a dataset through a crowdsourced mapping task in CoNav-Maze and train this model using a fully convolutional architecture with data augmentation. User studies show that IG-MCTS outperforms teleoperation and instruction-following baselines, achieving comparable task performance with significantly less communication and lower human cognitive load, as evidenced by eye-tracking metrics.
arxiv情報
著者 | Shenghui Chen,Ruihan Zhao,Sandeep Chinchali,Ufuk Topcu |
発行日 | 2025-02-03 22:08:04+00:00 |
arxivサイト | arxiv_id(pdf) |