要約
オフロードの自動運転には、特定の地形が走行するのに適しているかどうかを指す通過性を理解する必要があります。
オフロード車両が高速 ($>10m/s$) で移動する場合、安全かつ意図的なナビゲーションのために長距離 ($5000 万 $ ~ $1 億 $) を考慮する必要があります。
さらに、車両は新しい環境や異なる気象条件下で動作することがよくあります。
LiDAR は視覚的な外観に忠実な正確な推定値を提供しますが、測定値がまばらであるため、30 メートルを超えるとノイズが多すぎて詳細な推定を行うことができないことがよくあります。
逆に、視覚ベースのモデルは、より離れた距離では緻密な予測を提供しますが、トレーニング分布から外れる場合はすべての範囲でパフォーマンスが低下します。
これらの課題に対処するために、私たちは、両方のセンサーの長所を組み合わせてドライブに適応するオフロード認識モジュールである ALTER を紹介します。
私たちの視覚モデルは、新しい近距離 LiDAR 測定値から継続的に学習します。
この自己監視型アプローチにより、手作業でラベルを付けることなく、新しい環境における長距離の通過可能性を正確に予測できます。
2 つの異なる現実世界のオフロード環境での結果では、LiDAR のみの推定と比較して通過可能性の推定が最大 52.5% 向上し、非適応視覚ベースラインと比較して 38.1% の向上が示されています。
要約(オリジナル)
Autonomous off-road driving requires understanding traversability, which refers to the suitability of a given terrain to drive over. When offroad vehicles travel at high speed ($>10m/s$), they need to reason at long-range ($50m$-$100m$) for safe and deliberate navigation. Moreover, vehicles often operate in new environments and under different weather conditions. LiDAR provides accurate estimates robust to visual appearances, however, it is often too noisy beyond 30m for fine-grained estimates due to sparse measurements. Conversely, visual-based models give dense predictions at further distances but perform poorly at all ranges when out of training distribution. To address these challenges, we present ALTER, an offroad perception module that adapts-on-the-drive to combine the best of both sensors. Our visual model continuously learns from new near-range LiDAR measurements. This self-supervised approach enables accurate long-range traversability prediction in novel environments without hand-labeling. Results on two distinct real-world offroad environments show up to 52.5% improvement in traversability estimation over LiDAR-only estimates and 38.1% improvement over non-adaptive visual baseline.
arxiv情報
著者 | Eric Chen,Cherie Ho,Mukhtar Maulimov,Chen Wang,Sebastian Scherer |
発行日 | 2023-06-27 05:58:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google