要約
大規模な運転デモンストレーションから人間らしい運転方針を学ぶことは有望ですが、計画の不確実性と非決定的な性質により、それは困難になります。
この研究では、不確実性の問題に対処するために、確率的計画に基づくエンドツーエンドの運転モデルである VADv2 を提案します。
VADv2 は、ストリーミング方式でマルチビュー画像シーケンスを入力として受け取り、センサー データを環境トークン埋め込みに変換し、アクションの確率分布を出力し、車両を制御するために 1 つのアクションをサンプリングします。
VADv2 はカメラ センサーのみを使用して、CARLA Town05 ベンチマークで最先端の閉ループ パフォーマンスを実現し、既存のすべての方法を大幅に上回ります。
ルールベースのラッパーがなくても、完全にエンドツーエンドの方法で安定して実行されます。
クローズドループのデモは https://hgao-cv.github.io/VADv2 で提供されます。
要約(オリジナル)
Learning a human-like driving policy from large-scale driving demonstrations is promising, but the uncertainty and non-deterministic nature of planning make it challenging. In this work, to cope with the uncertainty problem, we propose VADv2, an end-to-end driving model based on probabilistic planning. VADv2 takes multi-view image sequences as input in a streaming manner, transforms sensor data into environmental token embeddings, outputs the probabilistic distribution of action, and samples one action to control the vehicle. Only with camera sensors, VADv2 achieves state-of-the-art closed-loop performance on the CARLA Town05 benchmark, significantly outperforming all existing methods. It runs stably in a fully end-to-end manner, even without the rule-based wrapper. Closed-loop demos are presented at https://hgao-cv.github.io/VADv2.
arxiv情報
著者 | Shaoyu Chen,Bo Jiang,Hao Gao,Bencheng Liao,Qing Xu,Qian Zhang,Chang Huang,Wenyu Liu,Xinggang Wang |
発行日 | 2024-02-20 18:55:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google