Fast Traversability Estimation for Wild Visual Navigation

要約

森林や草原などの自然環境は、高い草、小枝、低木などの硬い障害物を誤って認識するため、ロボットによるナビゲーションには困難を伴います。
この研究では、視覚のみを使用する通過可能性推定のためのオンライン自己教師あり学習システムである Wild Visual Navigation (WVN) を提案します。
このシステムは、現場で人間が短時間デモンストレーションを行うだけで、継続的に適応することができます。
これは、ロボット上でリアルタイムに実行される監視生成用のオンライン スキームを備えた、自己監視型ビジュアル トランスフォーマー モデルの高次元機能を活用します。
私たちは、森林、公園、草原などの困難な環境における実験とアブレーション研究を通じて、私たちのアプローチの利点を実証します。
当社のシステムは、フィールド内でのトレーニング時間 5 分未満で、移動可能な地形のセグメンテーションをブートストラップすることができ、ロボットが複雑な屋外の地形を移動できるようになり、高い草の中の障害物や 1.4 km の歩道を通過することができます。
私たちの実験は四足ロボット ANYmal を使用して実行されましたが、提示されたアプローチはあらゆる地上ロボットに一般化できます。

要約(オリジナル)

Natural environments such as forests and grasslands are challenging for robotic navigation because of the false perception of rigid obstacles from high grass, twigs, or bushes. In this work, we propose Wild Visual Navigation (WVN), an online self-supervised learning system for traversability estimation which uses only vision. The system is able to continuously adapt from a short human demonstration in the field. It leverages high-dimensional features from self-supervised visual transformer models, with an online scheme for supervision generation that runs in real-time on the robot. We demonstrate the advantages of our approach with experiments and ablation studies in challenging environments in forests, parks, and grasslands. Our system is able to bootstrap the traversable terrain segmentation in less than 5 min of in-field training time, enabling the robot to navigate in complex outdoor terrains – negotiating obstacles in high grass as well as a 1.4 km footpath following. While our experiments were executed with a quadruped robot, ANYmal, the approach presented can generalize to any ground robot.

arxiv情報

著者 Jonas Frey,Matias Mattamala,Nived Chebrolu,Cesar Cadena,Maurice Fallon,Marco Hutter
発行日 2023-05-16 08:49:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク