Solving Motion Planning Tasks with a Scalable Generative Model

要約

自律走行システムが数百万台の車両に導入されつつある現在、システムの拡張性、安全性の向上、エンジニアリングコストの削減が急務となっている。現実的でスケーラブルかつ実用的な運転世界のシミュレータが強く望まれている。本論文では、運転シーンのダイナミクスを学習する生成モデルに基づく効率的なソリューションを紹介する。このモデルにより、与えられた運転シナリオの多様な未来をシミュレートするだけでなく、様々なプロンプトを条件とした様々な運転シナリオを生成することができる。我々の革新的な設計により、このモデルは完全自己回帰モードと部分自己回帰モードの両方で動作し、生成能力を犠牲にすることなく推論と学習の速度を大幅に向上させることができる。この効率性により、強化学習のためのオンライン反応環境、政策立案のための評価器、テストのための忠実度の高いシミュレータとして使用するのに理想的である。WaymoモーションデータセットとnuPlanデータセットの2つの実世界データセットに対して我々のモデルを評価した。シミュレーションのリアリズムとシーン生成ベンチマークにおいて、我々のモデルは最先端の性能を達成した。また、プランニングベンチマークにおいて、我々のプランナは先行技術を凌駕した。提案する生成モデルは、データ生成、シミュレーション、プランニング、オンライントレーニングなど、様々なモーションプランニングタスクの基盤として役立つと結論付ける。ソースコードは https://github.com/HorizonRobotics/GUMP/ で公開されている。

要約(オリジナル)

As autonomous driving systems being deployed to millions of vehicles, there is a pressing need of improving the system’s scalability, safety and reducing the engineering cost. A realistic, scalable, and practical simulator of the driving world is highly desired. In this paper, we present an efficient solution based on generative models which learns the dynamics of the driving scenes. With this model, we can not only simulate the diverse futures of a given driving scenario but also generate a variety of driving scenarios conditioned on various prompts. Our innovative design allows the model to operate in both full-Autoregressive and partial-Autoregressive modes, significantly improving inference and training speed without sacrificing generative capability. This efficiency makes it ideal for being used as an online reactive environment for reinforcement learning, an evaluator for planning policies, and a high-fidelity simulator for testing. We evaluated our model against two real-world datasets: the Waymo motion dataset and the nuPlan dataset. On the simulation realism and scene generation benchmark, our model achieves the state-of-the-art performance. And in the planning benchmarks, our planner outperforms the prior arts. We conclude that the proposed generative model may serve as a foundation for a variety of motion planning tasks, including data generation, simulation, planning, and online training. Source code is public at https://github.com/HorizonRobotics/GUMP/

arxiv情報

著者 Yihan Hu,Siqi Chai,Zhening Yang,Jingyu Qian,Kun Li,Wenxin Shao,Haichao Zhang,Wei Xu,Qiang Liu
発行日 2024-07-03 03:57:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク