要約
環境の HD LiDAR マップを前提とせずに動作する自律ナビゲーション システムを紹介します。
私たちのシステムである ALT-Pilot は、公的に入手可能な道路網情報と、クラウドソーシングされたまばらな (そしてノイズの多い) 言語ランドマークのセットのみに依存しています。
車載センサーと言語拡張地形図の助けを借りて、ALT-Pilot は道路網上のあらゆる目的地まで車両を自律的に操縦します。
これは、Web スケール データで事前トレーニングされた視覚言語モデルを活用してシーン内の潜在的なランドマークを特定し、再帰的ベイジアン状態推定スタックに視覚言語機能を組み込んでグローバル (ルート) 計画と反応性軌道プランナーを生成することでこれを実現します。
車両フレーム内で動作するコントローラーと。
私たちは、ALT-Pilot をシミュレーションおよび実際の本格的な自動運転車に実装して評価し、最先端のトポメトリック ナビゲーション システムと比較して、位置特定精度が 3 倍、目標到達可能性が 5 倍向上したことを報告しています。
要約(オリジナル)
We present an autonomous navigation system that operates without assuming HD LiDAR maps of the environment. Our system, ALT-Pilot, relies only on publicly available road network information and a sparse (and noisy) set of crowdsourced language landmarks. With the help of onboard sensors and a language-augmented topometric map, ALT-Pilot autonomously pilots the vehicle to any destination on the road network. We achieve this by leveraging vision-language models pre-trained on web-scale data to identify potential landmarks in a scene, incorporating vision-language features into the recursive Bayesian state estimation stack to generate global (route) plans, and a reactive trajectory planner and controller operating in the vehicle frame. We implement and evaluate ALT-Pilot in simulation and on a real, full-scale autonomous vehicle and report improvements over state-of-the-art topometric navigation systems by a factor of 3x on localization accuracy and 5x on goal reachability
arxiv情報
著者 | Mohammad Omama,Pranav Inani,Pranjal Paul,Sarat Chandra Yellapragada,Krishna Murthy Jatavallabhula,Sandeep Chinchali,Madhava Krishna |
発行日 | 2023-10-03 18:01:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google