VADv2: End-to-End Vectorized Autonomous Driving via Probabilistic Planning

要約

大規模な運転デモンストレーションから人間らしい運転方針を学ぶことは有望ですが、計画の不確実性と非決定的な性質により、それは困難になります。
この研究では、不確実性の問題に対処するために、確率的計画に基づくエンドツーエンドの運転モデル​​である VADv2 を提案します。
VADv2 は、ストリーミング方式でマルチビュー画像シーケンスを入力として受け取り、センサー データを環境トークン埋め込みに変換し、アクションの確率分布を出力し、車両を制御するために 1 つのアクションをサンプリングします。
VADv2 はカメラ センサーのみを使用して、CARLA Town05 ベンチマークで最先端の閉ループ パフォーマンスを実現し、既存のすべての方法を大幅に上回ります。
ルールベースのラッパーがなくても、完全にエンドツーエンドの方法で安定して実行されます。
クローズドループのデモは https://hgao-cv.github.io/VADv2 で提供されます。

要約(オリジナル)

Learning a human-like driving policy from large-scale driving demonstrations is promising, but the uncertainty and non-deterministic nature of planning make it challenging. In this work, to cope with the uncertainty problem, we propose VADv2, an end-to-end driving model based on probabilistic planning. VADv2 takes multi-view image sequences as input in a streaming manner, transforms sensor data into environmental token embeddings, outputs the probabilistic distribution of action, and samples one action to control the vehicle. Only with camera sensors, VADv2 achieves state-of-the-art closed-loop performance on the CARLA Town05 benchmark, significantly outperforming all existing methods. It runs stably in a fully end-to-end manner, even without the rule-based wrapper. Closed-loop demos are presented at https://hgao-cv.github.io/VADv2.

arxiv情報

著者 Shaoyu Chen,Bo Jiang,Hao Gao,Bencheng Liao,Qing Xu,Qian Zhang,Chang Huang,Wenyu Liu,Xinggang Wang
発行日 2024-02-20 18:55:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク