要約
現在の視覚ナビゲーション・システムは、環境を静的なものとして扱うことが多く、障害物と適応的に相互作用する能力を欠いている。この限界は、避けることのできない障害物に遭遇した際のナビゲーションの失敗につながる。そこで我々は、障害物との相互作用を通じてより効果的なナビゲーション戦略を可能にする、自己教師付き経路計画への新しいアプローチであるIN-Sightを紹介する。IN-Sightは、RGB-D観測を利用して、トラバース可能性スコアを計算し、それをセマンティックマップに組み込むことで、複雑な迷路のような環境での長距離経路計画を容易にする。障害物を正確に回避するために、IN-Sightは、表現学習技術を用いて微分可能なコストマップ上で必須的に訓練されたローカルプランナーを採用している。フレームワーク全体は、最先端のフォトリアリスティックなIntel SPEARシミュレータでエンドツーエンドのトレーニングを受けます。様々なシミュレートシナリオとアブレーション研究における広範なベンチマークを通じて、IN-Sightの有効性を検証する。さらに、我々のプランナーを脚式ロボットプラットフォームANYmalに展開し、実環境におけるインタラクティブナビゲーションの実用的な可能性を示すことで、シミュレーションから実環境へのゼロショット転送によるシステムの実世界適用性を実証する。
要約(オリジナル)
Current visual navigation systems often treat the environment as static, lacking the ability to adaptively interact with obstacles. This limitation leads to navigation failure when encountering unavoidable obstructions. In response, we introduce IN-Sight, a novel approach to self-supervised path planning, enabling more effective navigation strategies through interaction with obstacles. Utilizing RGB-D observations, IN-Sight calculates traversability scores and incorporates them into a semantic map, facilitating long-range path planning in complex, maze-like environments. To precisely navigate around obstacles, IN-Sight employs a local planner, trained imperatively on a differentiable costmap using representation learning techniques. The entire framework undergoes end-to-end training within the state-of-the-art photorealistic Intel SPEAR Simulator. We validate the effectiveness of IN-Sight through extensive benchmarking in a variety of simulated scenarios and ablation studies. Moreover, we demonstrate the system’s real-world applicability with zero-shot sim-to-real transfer, deploying our planner on the legged robot platform ANYmal, showcasing its practical potential for interactive navigation in real environments.
arxiv情報
著者 | Philipp Schoch,Fan Yang,Yuntao Ma,Stefan Leutenegger,Marco Hutter,Quentin Leboute |
発行日 | 2024-08-01 07:27:54+00:00 |
arxivサイト | arxiv_id(pdf) |