要約
非構造化環境での正確かつ堅牢なナビゲーションには、複数のセンサーからのデータを融合する必要があります。
このような融合により、ロボットは、すぐには見えないが別の時間には見えていた環境領域も含めて、周囲の状況をよりよく認識できるようになります。
この問題を解決するために、姿勢推定と融合した一連の RGB および深度画像を使用して、困難な屋外環境における通過可能性を予測する方法を提案します。
WayFASTER (堅牢性を強化した通過性のためのウェイポイントフリー自律システム) と呼ばれる私たちの方法は、後退地平線推定器から記録された経験データを使用して、通過可能性を予測するための自己教師型ニューラル ネットワークをトレーニングし、ヒューリスティックの必要性を排除します。
私たちの実験は、私たちの方法が幾何学的な障害物の回避に優れており、背の高い草などの通過可能な地形が移動可能であることを正確に検出することを示しています。
WayFASTER は、一連の画像を使用することで、周囲に対するロボットの認識を大幅に強化し、すぐには見えない地形の通過可能性を予測できるようにします。
この強化された認識は、そのような予測機能が不可欠な環境におけるナビゲーション パフォーマンスの向上に貢献します。
要約(オリジナル)
Accurate and robust navigation in unstructured environments requires fusing data from multiple sensors. Such fusion ensures that the robot is better aware of its surroundings, including areas of the environment that are not immediately visible, but were visible at a different time. To solve this problem, we propose a method for traversability prediction in challenging outdoor environments using a sequence of RGB and depth images fused with pose estimations. Our method, termed WayFASTER (Waypoints-Free Autonomous System for Traversability with Enhanced Robustness), uses experience data recorded from a receding horizon estimator to train a self-supervised neural network for traversability prediction, eliminating the need for heuristics. Our experiments demonstrate that our method excels at avoiding geometric obstacles, and correctly detects that traversable terrains, such as tall grass, can be navigable. By using a sequence of images, WayFASTER significantly enhances the robot’s awareness of its surroundings, enabling it to predict the traversability of terrains that are not immediately visible. This enhanced awareness contributes to better navigation performance in environments where such predictive capabilities are essential.
arxiv情報
| 著者 | Mateus Valverde Gasparino,Arun Narenthiran Sivakumar,Girish Chowdhary |
| 発行日 | 2024-02-01 15:46:04+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google