要約
自動運転では、信頼性の高い軌道計画を立てるために、周囲の環境を包括的に理解する必要があります。
以前の作業は、高密度のラスター化されたシーン表現 (エージェントの占有率やセマンティック マップなど) に依存して計画を実行しますが、これは計算集約的であり、インスタンス レベルの構造情報を見逃しています。
このホワイト ペーパーでは、VAD を提案します。VAD は、自動運転のためのエンド ツー エンドのベクトル化パラダイムであり、運転シーンを完全にベクトル化された表現としてモデル化します。
提案されたベクトル化パラダイムには、2 つの重要な利点があります。
一方では、VAD は、ベクトル化されたエージェントの動きとマップ要素を明示的なインスタンス レベルの計画制約として活用し、計画の安全性を効果的に向上させます。
一方、VAD は、計算集約型のラスタライズされた表現と手動で設計された後処理ステップを取り除くことにより、以前のエンドツーエンドの計画方法よりもはるかに高速に実行されます。
VAD は、nuScenes データセットで最先端のエンドツーエンドの計画パフォーマンスを達成し、以前の最良の方法を大幅に上回りました (平均衝突率を 48.4% 削減)。
さらに、VAD は推論速度を大幅に向上させ (最大 9.3 倍)、これは自動運転システムの実世界での展開にとって重要です。
コードとモデルは、将来の研究を容易にするためにリリースされます。
要約(オリジナル)
Autonomous driving requires a comprehensive understanding of the surrounding environment for reliable trajectory planning. Previous works rely on dense rasterized scene representation (e.g., agent occupancy and semantic map) to perform planning, which is computationally intensive and misses the instance-level structure information. In this paper, we propose VAD, an end-to-end vectorized paradigm for autonomous driving, which models the driving scene as fully vectorized representation. The proposed vectorized paradigm has two significant advantages. On one hand, VAD exploits the vectorized agent motion and map elements as explicit instance-level planning constraints which effectively improves planning safety. On the other hand, VAD runs much faster than previous end-to-end planning methods by getting rid of computation-intensive rasterized representation and hand-designed post-processing steps. VAD achieves state-of-the-art end-to-end planning performance on the nuScenes dataset, outperforming the previous best method by a large margin (reducing the average collision rate by 48.4%). Besides, VAD greatly improves the inference speed (up to 9.3x), which is critical for the real-world deployment of an autonomous driving system. Code and models will be released for facilitating future research.
arxiv情報
著者 | Bo Jiang,Shaoyu Chen,Qing Xu,Bencheng Liao,Jiajie Chen,Helong Zhou,Qian Zhang,Wenyu Liu,Chang Huang,Xinggang Wang |
発行日 | 2023-03-21 17:59:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google