VAD: Vectorized Scene Representation for Efficient Autonomous Driving

要約

自動運転では、信頼性の高い軌道計画を立てるために周囲の環境を包括的に理解する必要があります。
これまでの研究では、高密度のラスタライズされたシーン表現 (エージェント占有やセマンティック マップなど) に依存してプランニングを実行していましたが、これは計算量が多く、インスタンス レベルの構造情報が欠落していました。
この論文では、完全にベクトル化された表現として運転シーンをモデル化する、自動運転のためのエンドツーエンドのベクトル化パラダイムである VAD を提案します。
提案されたベクトル化パラダイムには 2 つの重要な利点があります。
一方で、VAD はベクトル化されたエージェントのモーションとマップ要素を明示的なインスタンス レベルの計画制約として利用し、計画の安全性を効果的に向上させます。
一方、VAD は、計算集約的なラスター化表現と手作業で設計された後処理ステップを排除することにより、以前のエンドツーエンドの計画方法よりもはるかに高速に実行されます。
VAD は、nuScenes データセット上で最先端のエンドツーエンドの計画パフォーマンスを達成し、これまでの最良の方法を大幅に上回りました。
当社のベース モデルである VAD-Base は、平均衝突率を 29.0% 大幅に削減し、2.5 倍の速度で実行します。
さらに、軽量のバリアントである VAD-Tiny は、同等の計画パフォーマンスを達成しながら、推論速度を大幅に向上させます (最大 9.3 倍)。
VAD の優れたパフォーマンスと高効率は、自動運転システムを実際に導入するために不可欠であると私たちは考えています。
コードとモデルは、将来の研究を容易にするために https://github.com/hustvl/VAD で入手できます。

要約(オリジナル)

Autonomous driving requires a comprehensive understanding of the surrounding environment for reliable trajectory planning. Previous works rely on dense rasterized scene representation (e.g., agent occupancy and semantic map) to perform planning, which is computationally intensive and misses the instance-level structure information. In this paper, we propose VAD, an end-to-end vectorized paradigm for autonomous driving, which models the driving scene as a fully vectorized representation. The proposed vectorized paradigm has two significant advantages. On one hand, VAD exploits the vectorized agent motion and map elements as explicit instance-level planning constraints which effectively improves planning safety. On the other hand, VAD runs much faster than previous end-to-end planning methods by getting rid of computation-intensive rasterized representation and hand-designed post-processing steps. VAD achieves state-of-the-art end-to-end planning performance on the nuScenes dataset, outperforming the previous best method by a large margin. Our base model, VAD-Base, greatly reduces the average collision rate by 29.0% and runs 2.5x faster. Besides, a lightweight variant, VAD-Tiny, greatly improves the inference speed (up to 9.3x) while achieving comparable planning performance. We believe the excellent performance and the high efficiency of VAD are critical for the real-world deployment of an autonomous driving system. Code and models are available at https://github.com/hustvl/VAD for facilitating future research.

arxiv情報

著者 Bo Jiang,Shaoyu Chen,Qing Xu,Bencheng Liao,Jiajie Chen,Helong Zhou,Qian Zhang,Wenyu Liu,Chang Huang,Xinggang Wang
発行日 2023-08-24 08:15:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク