EPG-MGCN: Ego-Planning Guided Multi-Graph Convolutional Network for Heterogeneous Agent Trajectory Prediction

要約

複雑な交通環境で安全に運転するために、自動運転車は近くの異種交通エージェント (車両、歩行者、自転車など) の将来の軌道を正確に予測する必要があります。
インタラクティブな性質により、人間のドライバーは、さまざまな操作を実行する場合に将来の状況がどうなるかを推測することに慣れています。
相互作用の影響を十分に活用するために、この論文では、過去の軌跡情報と自我車両の将来の計画情報の両方を使用して異種エージェントの軌跡を予測する自我計画ガイド付きマルチグラフ畳み込みネットワーク (EPG-MGCN) を提案します。
EPG-MGCN は、まず、距離グラフ、可視性グラフ、計画グラフ、カテゴリ グラフの 4 つのグラフ トポロジを使用して社会的相互作用をモデル化します。
次に、エゴ車両の計画情報は、計画グラフと後続の計画誘導予測モジュールの両方によってエンコードされ、軌道予測の不確実性を減らします。
最後に、カテゴリ固有のゲーテッド リカレント ユニット (CS-GRU) エンコーダー/デコーダーは、特定の種類のエージェントごとに将来の軌跡を生成するように設計されています。
私たちのネットワークは、ApolloScape と NGSIM という 2 つの実世界の軌跡データセットで評価されます。
実験結果は、提案された EPG-MGCN が既存の方法と比較して最先端のパフォーマンスを達成することを示しています。

要約(オリジナル)

To drive safely in complex traffic environments, autonomous vehicles need to make an accurate prediction of the future trajectories of nearby heterogeneous traffic agents (i.e., vehicles, pedestrians, bicyclists, etc). Due to the interactive nature, human drivers are accustomed to infer what the future situations will become if they are going to execute different maneuvers. To fully exploit the impacts of interactions, this paper proposes a ego-planning guided multi-graph convolutional network (EPG-MGCN) to predict the trajectories of heterogeneous agents using both historical trajectory information and ego vehicle’s future planning information. The EPG-MGCN first models the social interactions by employing four graph topologies, i.e., distance graphs, visibility graphs, planning graphs and category graphs. Then, the planning information of the ego vehicle is encoded by both the planning graph and the subsequent planning-guided prediction module to reduce uncertainty in the trajectory prediction. Finally, a category-specific gated recurrent unit (CS-GRU) encoder-decoder is designed to generate future trajectories for each specific type of agents. Our network is evaluated on two real-world trajectory datasets: ApolloScape and NGSIM. The experimental results show that the proposed EPG-MGCN achieves state-of-the-art performance compared to existing methods.

arxiv情報

著者 Zihao Sheng,Zilin Huang,Sikai Chen
発行日 2023-03-29 21:14:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク