DragTraffic: Interactive and Controllable Traffic Scene Generation for Autonomous Driving

要約

自動運転システムの評価とトレーニングには、多様でスケーラブルなコーナーケースが必要です。
しかし、既存のシーン生成方法のほとんどは制御性、精度、汎用性に欠けており、満足のいく生成結果が得られません。
画像生成における DragGAN からインスピレーションを得て、条件付き拡散に基づいた一般化されたインタラクティブで制御可能な交通シーン生成フレームワークである DragTraffic を提案します。
DragTraffic を使用すると、専門家でなくても、適応混合エキスパート アーキテクチャを通じて、さまざまな種類の交通エージェントに対してさまざまな現実的な運転シナリオを生成できます。
回帰モデルを使用して一般的な初期解を提供し、条件付き拡散モデルに基づいて改良プロセスを提供して多様性を確保します。
ユーザーがカスタマイズしたコンテキストはクロスアテンションを通じて導入され、高い制御性を確保します。
現実世界の運転データセットでの実験では、信頼性、多様性、自由度の点で DragTraffic が既存の方法よりも優れていることが示されています。
デモビデオとコードは https://chantsss.github.io/Dragtraffic/ で入手できます。

要約(オリジナル)

Evaluating and training autonomous driving systems require diverse and scalable corner cases. However, most existing scene generation methods lack controllability, accuracy, and versatility, resulting in unsatisfactory generation results. Inspired by DragGAN in image generation, we propose DragTraffic, a generalized, interactive, and controllable traffic scene generation framework based on conditional diffusion. DragTraffic enables non-experts to generate a variety of realistic driving scenarios for different types of traffic agents through an adaptive mixture expert architecture. We employ a regression model to provide a general initial solution and a refinement process based on the conditional diffusion model to ensure diversity. User-customized context is introduced through cross-attention to ensure high controllability. Experiments on a real-world driving dataset show that DragTraffic outperforms existing methods in terms of authenticity, diversity, and freedom. Demo videos and code are available at https://chantsss.github.io/Dragtraffic/.

arxiv情報

著者 Sheng Wang,Ge Sun,Fulong Ma,Tianshuai Hu,Qiang Qin,Yongkang Song,Lei Zhu,Junwei Liang
発行日 2024-10-10 14:51:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク