要約
道路参加者の将来の動きを予測することは、自動運転にとって重要ですが、動きの不確実性が非常に大きいため、非常に困難です。
最近では、ほとんどの運動予測方法は、目標ベースの戦略に頼っています。つまり、運動軌跡の終点を条件として予測して、軌跡全体を回帰させ、解の探索空間を減らすことができます。
ただし、正確なゴール座標を予測して評価することは困難です。
さらに、目的地のポイント表現は、豊富な道路コンテキストの利用を制限し、多くの場合、不正確な予測結果につながります。
目標座標ではなく、目標領域、つまり可能な目的地領域は、より多くの許容範囲とガイダンスを含むことにより、潜在的な軌道を検索するためのより柔軟な制約を提供できます。
これを考慮して、モーション予測用のゴールエリアネットワーク(GANet)という名前の新しいゴールエリアベースのフレームワークを提案します。これは、軌道予測の前提条件として正確なゴール座標ではなくゴールエリアをモデル化し、より堅牢かつ正確に実行します。
具体的には、GoICrop (Goal Area of Interest) オペレーターを提案して、ゴール エリアのセマンティック レーン機能を効果的に抽出し、アクターの将来の相互作用をモデル化します。これは、将来の軌道推定に多くの利益をもたらします。
GANet は Argoverse Challenge のリーダーボードですべての公開文献 (論文提出まで) の中で 1 位にランクされ、そのソース コードが公開されます。
要約(オリジナル)
Predicting the future motion of road participants is crucial for autonomous driving but is extremely challenging due to staggering motion uncertainty. Recently, most motion forecasting methods resort to the goal-based strategy, i.e., predicting endpoints of motion trajectories as conditions to regress the entire trajectories, so that the search space of solution can be reduced. However, accurate goal coordinates are hard to predict and evaluate. In addition, the point representation of the destination limits the utilization of a rich road context, leading to inaccurate prediction results in many cases. Goal area, i.e., the possible destination area, rather than goal coordinate, could provide a more soft constraint for searching potential trajectories by involving more tolerance and guidance. In view of this, we propose a new goal area-based framework, named Goal Area Network (GANet), for motion forecasting, which models goal areas rather than exact goal coordinates as preconditions for trajectory prediction, performing more robustly and accurately. Specifically, we propose a GoICrop (Goal Area of Interest) operator to effectively extract semantic lane features in goal areas and model actors’ future interactions, which benefits a lot for future trajectory estimations. GANet ranks the 1st on the leaderboard of Argoverse Challenge among all public literature (till the paper submission), and its source codes will be released.
arxiv情報
著者 | Mingkun Wang,Xinge Zhu,Changqian Yu,Wei Li,Yuexin Ma,Ruochun Jin,Xiaoguang Ren,Dongchun Ren,Mingxu Wang,Wenjing Yang |
発行日 | 2022-09-20 13:54:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google