JointMotion: Joint Self-supervision for Joint Motion Prediction

要約

自動運転における関節動作予測のための自己教師あり学習手法JointMotionを紹介します。
私たちの方法には、モーションと環境を接続するシーンレベルの目標と、学習された表現を改良するためのインスタンスレベルの目標が含まれています。
私たちの評価では、これらの目的が補完的であり、関節動作予測の事前トレーニングとして最近の対照的および自動エンコーディング方法よりも優れていることが示されています。
さらに、JointMotion は、モーション予測に使用されるすべての一般的なタイプの環境表現 (つまり、エージェント中心、シーン中心、ペアワイズ相対) に適応し、Waymo Open Motion と Argoverse 2 Forecasting データセット間の効果的な転移学習を可能にします。
特に、私たちの方法は、Wayformer、Scene Transformer、および HPTR の関節の最終変位誤差をそれぞれ 3%、7%、および 11% 改善します。

要約(オリジナル)

We present JointMotion, a self-supervised learning method for joint motion prediction in autonomous driving. Our method includes a scene-level objective connecting motion and environments, and an instance-level objective to refine learned representations. Our evaluations show that these objectives are complementary and outperform recent contrastive and autoencoding methods as pre-training for joint motion prediction. Furthermore, JointMotion adapts to all common types of environment representations used for motion prediction (i.e., agent-centric, scene-centric, and pairwise relative), and enables effective transfer learning between the Waymo Open Motion and the Argoverse 2 Forecasting datasets. Notably, our method improves the joint final displacement error of Wayformer, Scene Transformer, and HPTR by 3%, 7%, and 11%, respectively.

arxiv情報

著者 Royden Wagner,Ömer Şahin Taş,Marvin Klemp,Carlos Fernandez
発行日 2024-03-08 17:54:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク