要約
自動運転システムの評価とトレーニングには、多様でスケーラブルなコーナーケースが必要です。
しかし、既存のシーン生成方法のほとんどは制御性、精度、汎用性に欠けており、満足のいく生成結果が得られません。
この問題に対処するために、条件付き拡散に基づいた一般化されたポイントベースの制御可能な交通シーン生成フレームワークである Dragtraffic を提案します。
Dragtraffic を使用すると、専門家でなくても、適応混合エキスパート アーキテクチャを通じて、さまざまな種類の交通エージェントに対してさまざまな現実的な運転シナリオを生成できます。
回帰モデルを使用して一般的な初期解を提供し、条件付き拡散モデルに基づいて改良プロセスを提供して多様性を確保します。
ユーザーがカスタマイズしたコンテキストはクロスアテンションを通じて導入され、高い制御性を確保します。
現実世界の運転データセットでの実験では、信頼性、多様性、自由度の点で Dragtraffic が既存の方法よりも優れていることが示されています。
要約(オリジナル)
The evaluation and training of autonomous driving systems require diverse and scalable corner cases. However, most existing scene generation methods lack controllability, accuracy, and versatility, resulting in unsatisfactory generation results. To address this problem, we propose Dragtraffic, a generalized, point-based, and controllable traffic scene generation framework based on conditional diffusion. Dragtraffic enables non-experts to generate a variety of realistic driving scenarios for different types of traffic agents through an adaptive mixture expert architecture. We use a regression model to provide a general initial solution and a refinement process based on the conditional diffusion model to ensure diversity. User-customized context is introduced through cross-attention to ensure high controllability. Experiments on a real-world driving dataset show that Dragtraffic outperforms existing methods in terms of authenticity, diversity, and freedom.
arxiv情報
著者 | Sheng Wang,Ge Sun,Fulong Ma,Tianshuai Hu,Yongkang Song,Lei Zhu,Ming Liu |
発行日 | 2024-04-19 04:49:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google