要約
自律的なオフロードナビゲーションには、環境を正確に意味的に理解する必要があり、多くの場合、さまざまな下流タスクのために鳥瞰図 (BEV) 表現に変換されます。
学習ベースの手法は、センサー データからローカルのセマンティック地形マップを直接生成することに成功していることを示していますが、不確実な地形特徴を正確に表現するという課題により、オフロード環境での有効性が妨げられています。
この論文では、BEV で密集地形分類マップを生成するための学習ベースの融合方法を紹介します。
複数のスケールで LiDAR 画像融合を実行することにより、私たちのアプローチは、RGB 画像とシングルスイープ LiDAR スキャンから生成されるセマンティック マップの精度を向上させます。
不確実性を認識した擬似ラベルを利用すると、正確な 3D 注釈を必要とせずに、オフロード環境でも確実に学習するネットワークの能力がさらに強化されます。
オフロード走行データセットを使用して徹底的な実験を行うことにより、私たちの方法がオフロード地形での精度を向上できることを実証し、困難なオフロード設定で信頼性が高く安全な自律ナビゲーションを促進するその有効性を検証します。
要約(オリジナル)
Autonomous off-road navigation requires an accurate semantic understanding of the environment, often converted into a bird’s-eye view (BEV) representation for various downstream tasks. While learning-based methods have shown success in generating local semantic terrain maps directly from sensor data, their efficacy in off-road environments is hindered by challenges in accurately representing uncertain terrain features. This paper presents a learning-based fusion method for generating dense terrain classification maps in BEV. By performing LiDAR-image fusion at multiple scales, our approach enhances the accuracy of semantic maps generated from an RGB image and a single-sweep LiDAR scan. Utilizing uncertainty-aware pseudo-labels further enhances the network’s ability to learn reliably in off-road environments without requiring precise 3D annotations. By conducting thorough experiments using off-road driving datasets, we demonstrate that our method can improve accuracy in off-road terrains, validating its efficacy in facilitating reliable and safe autonomous navigation in challenging off-road settings.
arxiv情報
著者 | Ohn Kim,Junwon Seo,Seongyong Ahn,Chong Hui Kim |
発行日 | 2024-03-05 04:20:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google