FutureNet-LOF: Joint Trajectory Prediction and Lane Occupancy Field Prediction with Future Context Encoding

要約

自動運転におけるこれまでの動き予測の取り組みのほとんどは、将来のシナリオのエンコードが不十分であり、エージェント(車両や歩行者など)の多様な動きを正確に捕捉できない可能性のある予測につながりました。
これに対処するために、最初に予測された軌跡を将来のシナリオに明示的に統合し、これらの将来のコンテキストをさらにエンコードしてその後の予測を強化する FutureNet を提案します。
さらに、これまでの動き予測作業のほとんどは、各エージェントの独立した未来を予測することに焦点を当てていました。
しかし、安全でスムーズな自動運転には、複雑な動的環境において周囲の多数のエージェントが共同して行う多様な将来の行動を正確に予測する必要があります。
すべてのエージェントが特定の潜在的な移動スペースを占有し、車線走行優先権を持っていることを考慮して、自動運転における動き予測のための車線セマンティクスを備えた新しい表現である車線占有フィールド (LOF) を提案します。
LOF は、すべての道路参加者の将来の時空間位置の同時確率分布を同時に取得できます。
車線占有フィールド予測と軌道予測の間には高い互換性があるため、これら 2 つのタスクを統合して予測するための将来のコンテキスト符号化を備えた新しいネットワークを提案します。
私たちのアプローチは、Argoverse 1 と Argoverse 2 という 2 つの大規模な動き予測ベンチマークで 1 位にランクされています。

要約(オリジナル)

Most prior motion prediction endeavors in autonomous driving have inadequately encoded future scenarios, leading to predictions that may fail to accurately capture the diverse movements of agents (e.g., vehicles or pedestrians). To address this, we propose FutureNet, which explicitly integrates initially predicted trajectories into the future scenario and further encodes these future contexts to enhance subsequent forecasting. Additionally, most previous motion forecasting works have focused on predicting independent futures for each agent. However, safe and smooth autonomous driving requires accurately predicting the diverse future behaviors of numerous surrounding agents jointly in complex dynamic environments. Given that all agents occupy certain potential travel spaces and possess lane driving priority, we propose Lane Occupancy Field (LOF), a new representation with lane semantics for motion forecasting in autonomous driving. LOF can simultaneously capture the joint probability distribution of all road participants’ future spatial-temporal positions. Due to the high compatibility between lane occupancy field prediction and trajectory prediction, we propose a novel network with future context encoding for the joint prediction of these two tasks. Our approach ranks 1st on two large-scale motion forecasting benchmarks: Argoverse 1 and Argoverse 2.

arxiv情報

著者 Mingkun Wang,Xiaoguang Ren,Ruochun Jin,Minglong Li,Xiaochuan Zhang,Changqian Yu,Mingxu Wang,Wenjing Yang
発行日 2024-06-20 15:41:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク