Large Trajectory Models are Scalable Motion Predictors and Planners

要約

動きの予測と計画は自動運転において重要なタスクであり、最近の取り組みは機械学習ベースのアプローチに移行しています。
課題には、多様な道路トポロジの理解、長期にわたる交通ダイナミクスの推論、異質な動作の解釈、大規模な連続状態空間でのポリシーの生成などが含まれます。
モデルのスケーリングを通じて同様の複雑さに対処する大規模言語モデルの成功に触発されて、State Transformer (STR) と呼ばれるスケーラブルな軌跡モデルを導入します。
STR は、観測、状態、アクションを 1 つの統一されたシーケンス モデリング タスクに整理することにより、動作予測と動作計画の問題を再定式化します。
私たちのアプローチは、軌道生成問題と他のシーケンス モデリング問題を統合し、言語モデリングなどの近隣領域でのブレークスルーによって迅速な反復を強化します。
驚くべきことに、実験結果から、STR などの大軌道モデル (LTM) は、優れた適応性と学習効率を示すことでスケーリング則に準拠していることが明らかになりました。
定性的な結果は、LTM がトレーニング データの分布から大きく異なるシナリオでも妥当な予測を行えることをさらに示しています。
LTM は、明示的な損失設計やコストのかかる高レベルの注釈を使用せずに、長期計画のための複雑な推論を行う方法も学習します。

要約(オリジナル)

Motion prediction and planning are vital tasks in autonomous driving, and recent efforts have shifted to machine learning-based approaches. The challenges include understanding diverse road topologies, reasoning traffic dynamics over a long time horizon, interpreting heterogeneous behaviors, and generating policies in a large continuous state space. Inspired by the success of large language models in addressing similar complexities through model scaling, we introduce a scalable trajectory model called State Transformer (STR). STR reformulates the motion prediction and motion planning problems by arranging observations, states, and actions into one unified sequence modeling task. Our approach unites trajectory generation problems with other sequence modeling problems, powering rapid iterations with breakthroughs in neighbor domains such as language modeling. Remarkably, experimental results reveal that large trajectory models (LTMs), such as STR, adhere to the scaling laws by presenting outstanding adaptability and learning efficiency. Qualitative results further demonstrate that LTMs are capable of making plausible predictions in scenarios that diverge significantly from the training data distribution. LTMs also learn to make complex reasonings for long-term planning, without explicit loss designs or costly high-level annotations.

arxiv情報

著者 Qiao Sun,Shiduo Zhang,Danjiao Ma,Jingzhe Shi,Derun Li,Simian Luo,Yu Wang,Ningyi Xu,Guangzhi Cao,Hang Zhao
発行日 2024-01-31 11:22:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク