要約
交通エージェントの将来の軌跡の正確な予測は、安全な自律運転を確保するために不可欠です。
ただし、部分的に観察された軌道は、最先端のモデルのパフォーマンスを大幅に低下させる可能性があります。
以前のアプローチは、完全に観察された軌跡から部分的に観察された軌道に特徴を伝達するために、知識の蒸留に依存していることがよくあります。
これには、最初に完全に観察されたモデルをトレーニングし、次に蒸留プロセスを使用して最終モデルを作成することが含まれます。
効果的ですが、マルチステージトレーニングが必要であり、トレーニングプロセスを非常に高価にします。
さらに、知識の蒸留は、モデルのパフォーマンス低下につながる可能性があります。
この論文では、モーション予測のためにターゲット駆動型の自己抵抗法(TSD)を紹介します。
私たちの方法は、部分的な観測条件下で予測を行う際にモデルを導くために正確なターゲットを予測しました。
自己抵抗を採用することにより、モデルは、単一のエンドツーエンドトレーニングプロセス中に、完全に観察された軌跡と部分的に観察された軌跡の両方の特徴分布から学習します。
これにより、完全に観察されたシナリオと部分的に観察されたシナリオの両方で動きを正確に予測するモデルの能力が向上します。
複数のデータセットと最先端のモーション予測モデルでの方法を評価します。
広範な実験結果は、私たちのアプローチが両方の設定で大幅なパフォーマンスの改善を達成することを示しています。
さらなる調査を容易にするために、コードとモデルのチェックポイントをリリースします。
要約(オリジナル)
Accurate prediction of future trajectories of traffic agents is essential for ensuring safe autonomous driving. However, partially observed trajectories can significantly degrade the performance of even state-of-the-art models. Previous approaches often rely on knowledge distillation to transfer features from fully observed trajectories to partially observed ones. This involves firstly training a fully observed model and then using a distillation process to create the final model. While effective, they require multi-stage training, making the training process very expensive. Moreover, knowledge distillation can lead to a performance degradation of the model. In this paper, we introduce a Target-driven Self-Distillation method (TSD) for motion forecasting. Our method leverages predicted accurate targets to guide the model in making predictions under partial observation conditions. By employing self-distillation, the model learns from the feature distributions of both fully observed and partially observed trajectories during a single end-to-end training process. This enhances the model’s ability to predict motion accurately in both fully observed and partially observed scenarios. We evaluate our method on multiple datasets and state-of-the-art motion forecasting models. Extensive experimental results demonstrate that our approach achieves significant performance improvements in both settings. To facilitate further research, we will release our code and model checkpoints.
arxiv情報
著者 | Pengfei Zhu,Peng Shu,Mengshi Qi,Liang Liu,Huadong Ma |
発行日 | 2025-01-28 07:46:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google