要約
動的環境における道路利用者の軌跡予測は、自動運転などのさまざまなアプリケーションにとって困難ではありますが、重要なタスクです。
この領域における主な課題の 1 つは、エージェントの未知だが多様な意図から生じる将来の軌道の多峰性です。
拡散モデルは、予測タスクにおけるこのような確率性を捉えるのに非常に効果的であることが示されています。
ただし、これらのモデルには多くの計算コストのかかるノイズ除去ステップとサンプリング操作が含まれるため、リアルタイムの安全性が重要なアプリケーションにとってはあまり望ましい選択肢ではありません。
この目的を達成するために、計算効率の高い方法で将来の軌道を予測するための拡散モデルを活用する新しいフレームワークを提案します。
反復サンプリングにおける計算のボトルネックを最小限に抑えるために、リアルタイムの推論時間を維持しながら、サンプリングされる軌跡の数を最大化して精度を向上できる効率的なサンプリング メカニズムを採用しています。
さらに、相対的なランクを割り当てることで最も妥当な軌道を選択するスコアリングメカニズムを提案します。
一般的な歩行者 (UCY/ETH) と自動運転 (nuScenes) のベンチマーク データセットに対して実証的評価を行うことで、アプローチの有効性を示します。このデータセットでは、モデルがいくつかのサブセットとメトリクスで最先端のパフォーマンスを達成しています。
要約(オリジナル)
Road user trajectory prediction in dynamic environments is a challenging but crucial task for various applications, such as autonomous driving. One of the main challenges in this domain is the multimodal nature of future trajectories stemming from the unknown yet diverse intentions of the agents. Diffusion models have shown to be very effective in capturing such stochasticity in prediction tasks. However, these models involve many computationally expensive denoising steps and sampling operations that make them a less desirable option for real-time safety-critical applications. To this end, we present a novel framework that leverages diffusion models for predicting future trajectories in a computationally efficient manner. To minimize the computational bottlenecks in iterative sampling, we employ an efficient sampling mechanism that allows us to maximize the number of sampled trajectories for improved accuracy while maintaining inference time in real time. Moreover, we propose a scoring mechanism to select the most plausible trajectories by assigning relative ranks. We show the effectiveness of our approach by conducting empirical evaluations on common pedestrian (UCY/ETH) and autonomous driving (nuScenes) benchmark datasets on which our model achieves state-of-the-art performance on several subsets and metrics.
arxiv情報
著者 | Younwoo Choi,Ray Coden Mercurius,Soheil Mohamad Alizadeh Shabestary,Amir Rasouli |
発行日 | 2023-10-23 05:04:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google