要約
自動運転車の安全な運行を確保するには、交通エージェントの将来の動きを予測することが不可欠です。
2 種類の冗長性削減を組み込んだ動き予測用のトランスフォーマー モデルである RedMotion を紹介します。
最初のタイプの冗長性削減は、内部トランス デコーダによって引き起こされ、エージェント データを含む道路グラフなどの可変サイズの道路環境トークンのセットを固定サイズの埋め込みに削減します。
2 番目のタイプの冗長性削減は、自己教師あり学習目標であり、道路環境の拡張ビューから生成されたエンベディングに冗長性削減の原則を適用します。
私たちの実験では、表現学習アプローチが半教師あり設定で PreTraM、Traj-MAE、GraphDINO よりも優れたパフォーマンスを発揮できることが明らかになりました。
当社の RedMotion モデルは、Scene Transformer や MTR++ のモデルに匹敵する結果を達成します。
GitHub (https://github.com/kit-mrt/red-motion) および Colab (https://colab.research.google.com/drive/1Q-Z9VdiqvfPfctNG8oqzPcgm0lP3y1il) 経由でアクセスできるオープンソース実装を提供します。
要約(オリジナル)
Predicting the future motion of traffic agents is vital for self-driving vehicles to ensure their safe operation. We introduce RedMotion, a transformer model for motion prediction that incorporates two types of redundancy reduction. The first type of redundancy reduction is induced by an internal transformer decoder and reduces a variable-sized set of road environment tokens, such as road graphs with agent data, to a fixed-sized embedding. The second type of redundancy reduction is a self-supervised learning objective and applies the redundancy reduction principle to embeddings generated from augmented views of road environments. Our experiments reveal that our representation learning approach can outperform PreTraM, Traj-MAE, and GraphDINO in a semi-supervised setting. Our RedMotion model achieves results that are competitive with those of Scene Transformer or MTR++. We provide an open source implementation that is accessible via GitHub (https://github.com/kit-mrt/red-motion) and Colab (https://colab.research.google.com/drive/1Q-Z9VdiqvfPfctNG8oqzPcgm0lP3y1il).
arxiv情報
著者 | Royden Wagner,Omer Sahin Tas,Marvin Klemp,Carlos Fernandez Lopez |
発行日 | 2023-10-05 16:13:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google