要約
動きの予測は、システムが現実世界のエージェントの相互作用の確率的ダイナミクスとマルチモーダルな性質を理解する必要があるため、自動運転における困難な問題です。
普及モデルは最近注目を集めており、歩行者の動きの予測タスクにおいて特に効果的であることが証明されています。
ただし、大幅な時間の消費とノイズの影響を受けやすいため、拡散モデルのリアルタイム予測能力は制限されています。
これらの障害に対応して、我々は、ノイズに対する耐性を強化してエージェントの将来の軌道を適切に予測する、新しい拡散ベースの加速可能なフレームワークを提案します。
私たちのモデルの核となるアイデアは、多数のノイズ除去ステップをスキップできる、軌道の粗粒な事前分布を学習することです。
この進歩により、サンプリング効率が向上するだけでなく、予測精度の忠実性も維持されます。
私たちの方法は、自動運転車に不可欠な厳格なリアルタイム運用基準を満たしており、安全で効率的なナビゲーションに不可欠な迅速な軌道生成を可能にします。
広範な実験を通じて、私たちの方法は標準の拡散モデルと比較して推論時間を 136 ミリ秒まで高速化し、Argoverse 1 動き予測データセットでのマルチエージェント動き予測の大幅な改善を達成しました。
要約(オリジナル)
Motion prediction is a challenging problem in autonomous driving as it demands the system to comprehend stochastic dynamics and the multi-modal nature of real-world agent interactions. Diffusion models have recently risen to prominence, and have proven particularly effective in pedestrian motion prediction tasks. However, the significant time consumption and sensitivity to noise have limited the real-time predictive capability of diffusion models. In response to these impediments, we propose a novel diffusion-based, acceleratable framework that adeptly predicts future trajectories of agents with enhanced resistance to noise. The core idea of our model is to learn a coarse-grained prior distribution of trajectory, which can skip a large number of denoise steps. This advancement not only boosts sampling efficiency but also maintains the fidelity of prediction accuracy. Our method meets the rigorous real-time operational standards essential for autonomous vehicles, enabling prompt trajectory generation that is vital for secure and efficient navigation. Through extensive experiments, our method speeds up the inference time to 136ms compared to standard diffusion model, and achieves significant improvement in multi-agent motion prediction on the Argoverse 1 motion forecasting dataset.
arxiv情報
著者 | Jiahui Li,Tianle Shen,Zekai Gu,Jiawei Sun,Chengran Yuan,Yuhang Han,Shuo Sun,Marcelo H. Ang Jr |
発行日 | 2024-05-01 18:16:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google