要約
自動運転タスクでは、複雑な交通環境での軌道予測には、現実世界のコンテキスト条件と行動のマルチモダリティを遵守する必要があります。
既存の方法は主に、シーンの制約によって制限される道路管理者の確率的動作を学習するために、事前の仮定または厳選されたデータに基づいてトレーニングされた生成モデルに依存しています。
ただし、データの不均衡や単純化された事前分布によるモード平均化の問題に直面することが多く、不安定なトレーニングや単一のグランド トゥルース監視によってモード崩壊が発生する可能性さえあります。
これらの問題により、既存の方法では予測の多様性が失われ、シーンの制約が遵守されなくなります。
これらの課題に対処するために、Controllable Diffusion Trajectory (CDT) という名前の新しい軌道ジェネレーターを導入します。これは、マップ情報と社会的相互作用を Transformer ベースの条件付きノイズ除去拡散モデルに統合して、将来の軌道の予測をガイドします。
多峰性を確保するために、直進、右折、左折などの軌道のモードを指示する行動トークンを組み込みます。
さらに、予測されたエンドポイントを代替行動トークンとして CDT モデルに組み込み、正確な軌道の予測を容易にします。
Argoverse 2 ベンチマークに関する広範な実験により、CDT が複雑な都市環境で多様でシーンに準拠した軌道を生成することに優れていることが実証されました。
要約(オリジナル)
In autonomous driving tasks, trajectory prediction in complex traffic environments requires adherence to real-world context conditions and behavior multimodalities. Existing methods predominantly rely on prior assumptions or generative models trained on curated data to learn road agents’ stochastic behavior bounded by scene constraints. However, they often face mode averaging issues due to data imbalance and simplistic priors, and could even suffer from mode collapse due to unstable training and single ground truth supervision. These issues lead the existing methods to a loss of predictive diversity and adherence to the scene constraints. To address these challenges, we introduce a novel trajectory generator named Controllable Diffusion Trajectory (CDT), which integrates map information and social interactions into a Transformer-based conditional denoising diffusion model to guide the prediction of future trajectories. To ensure multimodality, we incorporate behavioral tokens to direct the trajectory’s modes, such as going straight, turning right or left. Moreover, we incorporate the predicted endpoints as an alternative behavioral token into the CDT model to facilitate the prediction of accurate trajectories. Extensive experiments on the Argoverse 2 benchmark demonstrate that CDT excels in generating diverse and scene-compliant trajectories in complex urban settings.
arxiv情報
著者 | Yiming Xu,Hao Cheng,Monika Sester |
発行日 | 2024-02-06 13:16:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google