要約
エンドツーエンドの自律運転は、生センサーからの計画軌跡を直接作成することを目的としています。
現在、ほとんどのアプローチは、知覚、予測、および計画モジュールを完全に微分可能なネットワークに統合し、優れたスケーラビリティを約束しています。
ただし、これらの方法は通常、車両計画を導くまたは制約するための認識モジュール内のオンラインマップの決定論的モデリングに依存しており、誤った認識情報を組み込んだり、計画の安全性をさらに妥協したりする可能性があります。
この問題に対処するために、自律運転の安全性を高めるためのオンラインマップの不確実性の重要性を掘り下げ、UNCADという名前の新しいパラダイムを提案します。
具体的には、UNCADは最初に、知覚モジュールのオンラインマップの不確実性を推定します。
次に、不確実性を活用して、モーション予測と計画モジュールを導き、マルチモーダルの軌跡を生成します。
最後に、より安全な自律運転を達成するために、UNSADは、最適な軌跡を評価および選択するために、オンラインマップの不確実性に従って、不確実性衝突に対応する計画選択戦略を提案します。
この研究では、UNCADをさまざまな最先端(SOTA)エンドツーエンドの方法に組み込みます。
Nuscenesデータセットの実験では、パラメーターが1.9%増加したUNCADを統合すると、衝突率が最大26%増加し、駆動可能なエリア競合率が最大42%減少することが示されています。
コード、事前に訓練されたモデル、およびデモビデオには、https://github.com/pengxuanyang/uncadでアクセスできます。
要約(オリジナル)
End-to-end autonomous driving aims to produce planning trajectories from raw sensors directly. Currently, most approaches integrate perception, prediction, and planning modules into a fully differentiable network, promising great scalability. However, these methods typically rely on deterministic modeling of online maps in the perception module for guiding or constraining vehicle planning, which may incorporate erroneous perception information and further compromise planning safety. To address this issue, we delve into the importance of online map uncertainty for enhancing autonomous driving safety and propose a novel paradigm named UncAD. Specifically, UncAD first estimates the uncertainty of the online map in the perception module. It then leverages the uncertainty to guide motion prediction and planning modules to produce multi-modal trajectories. Finally, to achieve safer autonomous driving, UncAD proposes an uncertainty-collision-aware planning selection strategy according to the online map uncertainty to evaluate and select the best trajectory. In this study, we incorporate UncAD into various state-of-the-art (SOTA) end-to-end methods. Experiments on the nuScenes dataset show that integrating UncAD, with only a 1.9% increase in parameters, can reduce collision rates by up to 26% and drivable area conflict rate by up to 42%. Codes, pre-trained models, and demo videos can be accessed at https://github.com/pengxuanyang/UncAD.
arxiv情報
著者 | Pengxuan Yang,Yupeng Zheng,Qichao Zhang,Kefei Zhu,Zebin Xing,Qiao Lin,Yun-Fu Liu,Zhiguo Su,Dongbin Zhao |
発行日 | 2025-04-17 10:40:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google