RoadRunner — Learning Traversability Estimation for Autonomous Off-road Driving

要約

オフロード環境での高速自律ナビゲーションでは、ロボットがオンボードセンシングのみを使用して周囲の環境を包括的に理解する必要があります。
オフロード設定によってもたらされる極端な条件は、照明不足やモーションブラーによってカメラの画質の低下を引き起こす可能性があるほか、高速走行時に LiDAR センシングから得られる幾何学的情報が限られている可能性があります。
この研究では、カメラと LiDAR センサーの入力から直接、地形の通過可能性と標高マップを予測できる新しいフレームワークである RoadRunner を紹介します。
RoadRunner は、低遅延で動作しながら、感覚情報、不確実性の処理、および地形の形状と通過可能性に関する状況に応じた予測の生成を融合することにより、信頼性の高い自律ナビゲーションを可能にします。
手作業で作成されたセマンティック クラスの分類やヒューリスティックを使用した通過可能性コストの予測に依存する既存の手法とは対照的に、私たちの手法は自己教師ありの方法でエンドツーエンドでトレーニングされます。
RoadRunner ネットワーク アーキテクチャは、自動運転分野で人気のあるセンサー フュージョン ネットワーク アーキテクチャに基づいて構築されており、LiDAR とカメラの情報が共通の鳥瞰図の視点に組み込まれています。
既存の走行可能性推定スタックを利用して、現実世界のオフロード走行データセットからスケーラブルな方法で後からトレーニング データを生成することで、トレーニングが可能になります。
さらに、RoadRunner はシステムの遅延を 500 ミリ秒から 140 ミリ秒まで約 4 倍に改善し、同時に通過コストと標高地図の予測の精度を向上させます。
私たちは、構造化されていない砂漠環境を通る複数の実世界の運転シナリオにおいて、高速での安全で信頼性の高いオフロード ナビゲーションを可能にする RoadRunner の有効性を実証します。

要約(オリジナル)

Autonomous navigation at high speeds in off-road environments necessitates robots to comprehensively understand their surroundings using onboard sensing only. The extreme conditions posed by the off-road setting can cause degraded camera image quality due to poor lighting and motion blur, as well as limited sparse geometric information available from LiDAR sensing when driving at high speeds. In this work, we present RoadRunner, a novel framework capable of predicting terrain traversability and an elevation map directly from camera and LiDAR sensor inputs. RoadRunner enables reliable autonomous navigation, by fusing sensory information, handling of uncertainty, and generation of contextually informed predictions about the geometry and traversability of the terrain while operating at low latency. In contrast to existing methods relying on classifying handcrafted semantic classes and using heuristics to predict traversability costs, our method is trained end-to-end in a self-supervised fashion. The RoadRunner network architecture builds upon popular sensor fusion network architectures from the autonomous driving domain, which embed LiDAR and camera information into a common Bird’s Eye View perspective. Training is enabled by utilizing an existing traversability estimation stack to generate training data in hindsight in a scalable manner from real-world off-road driving datasets. Furthermore, RoadRunner improves the system latency by a factor of roughly 4, from 500 ms to 140 ms, while improving the accuracy for traversability costs and elevation map predictions. We demonstrate the effectiveness of RoadRunner in enabling safe and reliable off-road navigation at high speeds in multiple real-world driving scenarios through unstructured desert environments.

arxiv情報

著者 Jonas Frey,Manthan Patel,Deegan Atha,Julian Nubert,David Fan,Ali Agha,Curtis Padgett,Patrick Spieler,Marco Hutter,Shehryar Khattak
発行日 2024-08-30 09:07:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク