InstructNav: Zero-shot System for Generic Instruction Navigation in Unexplored Environment

要約

ロボットが未踏の環境で多様な言語指示に従ってナビゲートできるようにすることは、人間とロボットのインタラクションにとって魅力的な目標です。
ただし、ナビゲーション タスクが異なれば異なる戦略が必要となるため、この目標は困難です。
指示ナビゲーション データが不足しているため、さまざまな戦略を使用した指示ナビゲーション モデルのトレーニングが妨げられます。
したがって、これまでのメソッドはすべて、1 つの特定の種類のナビゲーション命令に限定されています。
この研究では、汎用指示ナビゲーション システムである InstructNav を提案します。
InstructNav は、ナビゲーション トレーニングや事前構築されたマップを使用せずに、さまざまな指示ナビゲーション タスクを処理することを最初に試みます。
この目標を達成するために、Dynamic Chain-of-Navigation (DCoN) を導入して、さまざまな種類のナビゲーション指示の計画プロセスを統合します。
さらに、言語的な DCoN 計画をロボットが実行可能な軌道に変換できるように、指示ナビゲーションの主要な要素をモデル化するマルチソース バリュー マップを提案します。
InstructNav を使用すると、初めてゼロショットの方法で R2R-CE タスクを完了し、多くのタスク トレーニング方法を上回りました。
さらに、InstructNav は、ゼロショット Habitat ObjNav では以前の SOTA メソッドを 10.48%、デマンド駆動型ナビゲーション DDN では 86.34% 上回っています。
さまざまな屋内シーンでの実際のロボット実験は、環境や命令の変化に対処する際の私たちの方法の堅牢性をさらに実証します。

要約(オリジナル)

Enabling robots to navigate following diverse language instructions in unexplored environments is an attractive goal for human-robot interaction. However, this goal is challenging because different navigation tasks require different strategies. The scarcity of instruction navigation data hinders training an instruction navigation model with varied strategies. Therefore, previous methods are all constrained to one specific type of navigation instruction. In this work, we propose InstructNav, a generic instruction navigation system. InstructNav makes the first endeavor to handle various instruction navigation tasks without any navigation training or pre-built maps. To reach this goal, we introduce Dynamic Chain-of-Navigation (DCoN) to unify the planning process for different types of navigation instructions. Furthermore, we propose Multi-sourced Value Maps to model key elements in instruction navigation so that linguistic DCoN planning can be converted into robot actionable trajectories. With InstructNav, we complete the R2R-CE task in a zero-shot way for the first time and outperform many task-training methods. Besides, InstructNav also surpasses the previous SOTA method by 10.48% on the zero-shot Habitat ObjNav and by 86.34% on demand-driven navigation DDN. Real robot experiments on diverse indoor scenes further demonstrate our method’s robustness in coping with the environment and instruction variations.

arxiv情報

著者 Yuxing Long,Wenzhe Cai,Hongcheng Wang,Guanqi Zhan,Hao Dong
発行日 2024-06-07 12:26:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CV, cs.RO パーマリンク