UNRealNet: Learning Uncertainty-Aware Navigation Features from High-Fidelity Scans of Real Environments

要約

険しい非構造環境における通過可能性の推定は、フィールドロボット工学において依然として困難な問題です。
多くの場合、正確かつ正確な通過可能性推定の必要性は、手頃な価格の小型移動ロボットに備わっている限られたセンシングおよび計算能力とは正反対です。
この問題に対処するために、[現実] 環境の高忠実度スキャンから [u]ncertainty-aware [n]avigation features を学習する新しい方法を提案します (UNRealNet)。
このネットワークをロボット上に展開すると、低品質のセンサーからの入力を使用してこれらの忠実度の高い特徴を予測できます。
UNRealNet は、単一フレームの LIDAR スキャンから直接密集したメートル空間フィーチャを予測するため、オクルージョンとオドメトリ エラーの影響を軽減します。
私たちのアプローチはラベルフリーであり、ロボットに依存しない通過可能性の推定値を生成できます。
さらに、UNRealNet の予測不確実性を活用して、リスクを意識した通過可能性の推定値を生成し、時間の経過とともに特徴予測を改良することができます。
私たちの方法は、従来のローカル マッピングとベースラインの修復を最大 40% 上回っており、複数の脚を持つプラットフォームでその有効性を実証していることがわかりました。

要約(オリジナル)

Traversability estimation in rugged, unstructured environments remains a challenging problem in field robotics. Often, the need for precise, accurate traversability estimation is in direct opposition to the limited sensing and compute capability present on affordable, small-scale mobile robots. To address this issue, we present a novel method to learn [u]ncertainty-aware [n]avigation features from high-fidelity scans of [real]-world environments (UNRealNet). This network can be deployed on-robot to predict these high-fidelity features using input from lower-quality sensors. UNRealNet predicts dense, metric-space features directly from single-frame lidar scans, thus reducing the effects of occlusion and odometry error. Our approach is label-free, and is able to produce traversability estimates that are robot-agnostic. Additionally, we can leverage UNRealNet’s predictive uncertainty to both produce risk-aware traversability estimates, and refine our feature predictions over time. We find that our method outperforms traditional local mapping and inpainting baselines by up to 40%, and demonstrate its efficacy on multiple legged platforms.

arxiv情報

著者 Samuel Triest,David D. Fan,Sebastian Scherer,Ali-Akbar Agha-Mohammadi
発行日 2024-07-11 17:54:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク