要約
オフロード環境で地形の通過可能性を推定するには、ロボットとこれらの地形との間の複雑な相互作用のダイナミクスについて推論する必要があります。
ただし、これらの相互作用について教師付きの方法でモデルを学習するための有益なラベルを作成することは困難です。
外受容環境情報と固有受容地形相互作用フィードバックを自己教師付きの方法で組み合わせることにより、通過可能性コストマップを予測することを学習する方法を提案します。
さらに、コストマップ予測パイプラインにロボットの速度を組み込む新しい方法を提案します。
2 つの異なる大型の全地形ロボットを使用して、困難なオフロード地形での複数の短期および大規模なナビゲーション タスクで、この方法を検証します。
短いスケールのナビゲーションの結果は、学習したコストマップを使用すると、全体的にスムーズなナビゲーションにつながり、ロボットと地形の相互作用をよりきめ細かく理解できるようになることを示しています。
当社の大規模なナビゲーション トライアルでは、400 m から 3150 m までの挑戦的なオフロード コースで、占有ベースのナビゲーション ベースラインと比較して、介入の数を最大 57\% 削減できることが示されています。
付録と完全な実験ビデオは、当社の Web サイト (https://mateoguaman.github.io/hdif) にあります。
要約(オリジナル)
Estimating terrain traversability in off-road environments requires reasoning about complex interaction dynamics between the robot and these terrains. However, it is challenging to create informative labels to learn a model in a supervised manner for these interactions. We propose a method that learns to predict traversability costmaps by combining exteroceptive environmental information with proprioceptive terrain interaction feedback in a self-supervised manner. Additionally, we propose a novel way of incorporating robot velocity in the costmap prediction pipeline. We validate our method in multiple short and large-scale navigation tasks on challenging off-road terrains using two different large, all-terrain robots. Our short-scale navigation results show that using our learned costmaps leads to overall smoother navigation, and provides the robot with a more fine-grained understanding of the robot-terrain interactions. Our large-scale navigation trials show that we can reduce the number of interventions by up to 57\% compared to an occupancy-based navigation baseline in challenging off-road courses ranging from 400 m to 3150 m. Appendix and full experiment videos can be found in our website: https://mateoguaman.github.io/hdif.
arxiv情報
著者 | Mateo Guaman Castro,Samuel Triest,Wenshan Wang,Jason M. Gregory,Felix Sanchez,John G. Rogers III,Sebastian Scherer |
発行日 | 2023-02-14 17:21:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google