要約
冗長性の削減により環境表現を学習する自動運転車のモーション予測のための変圧器モデルであるRedMotionを紹介します。
最初のタイプの冗長性削減は、内部変圧器デコーダーによって誘導され、道路グラフとエージェントデータを表すローカル道路環境トークンの可変サイズのセットを固定サイズのグローバル埋め込みに削減します。
2番目のタイプの冗長性削減は、自己監視学習によって得られ、道路環境の拡張ビューから生成された埋め込みに冗長性削減原理を適用します。
私たちの実験は、私たちの表現学習アプローチが、半監視された環境でPretram、Traj-Mae、およびGraphdinoよりも優れていることを明らかにしています。
さらに、RedMotionは、WAYMOモーション予測チャレンジでHPTRまたはMTR ++と比較して競争結果を達成します。
オープンソースの実装は、https://github.com/kit-mrt/future-motionで入手できます
要約(オリジナル)
We introduce RedMotion, a transformer model for motion prediction in self-driving vehicles that learns environment representations via redundancy reduction. Our first type of redundancy reduction is induced by an internal transformer decoder and reduces a variable-sized set of local road environment tokens, representing road graphs and agent data, to a fixed-sized global embedding. The second type of redundancy reduction is obtained by self-supervised learning and applies the redundancy reduction principle to embeddings generated from augmented views of road environments. Our experiments reveal that our representation learning approach outperforms PreTraM, Traj-MAE, and GraphDINO in a semi-supervised setting. Moreover, RedMotion achieves competitive results compared to HPTR or MTR++ in the Waymo Motion Prediction Challenge. Our open-source implementation is available at: https://github.com/kit-mrt/future-motion
arxiv情報
著者 | Royden Wagner,Omer Sahin Tas,Marvin Klemp,Carlos Fernandez,Christoph Stiller |
発行日 | 2025-04-01 14:26:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google