Deep Stochastic Kinematic Models for Probabilistic Motion Forecasting in Traffic

要約

交通の軌道予測タスクでは、運動学モデルに従って予測されたアクションで自車両の状態を進めることにより、将来の出力軌道を計算できます。
時間積分と運動力学のモデルを介して予測軌道を展開することにより、予測軌道は運動学的に実現可能であるだけでなく、あるタイムステップから次のタイムステップへの不確実性も関連付けられるはずです。
確率的予測における現在の研究では、平均軌道予測に運動学的事前分布が組み込まれていますが、あるタイム ステップの不確実性が前のタイム ステップの不確実性と密接に結びついているにもかかわらず、_variance_ は学習可能なパラメータとして残されることがよくあります。
この論文では、運動学的な自転車モデルを使用した、あるタイムステップと次のタイムステップでの分散間の関係を記述する、単純で微分可能な解析的近似を示します。
私たちの結果では、タイムステップ間の分散間の関係のエンコードは、小さいデータセットやノイズの多いデータセットなど、最適でない設定で特にうまく機能することがわかりました。
微調整なしですぐに使用できる SOTA 軌道予測アーキテクチャの以前の運動学予測手法と比較して、部分的なデータセット設定で最大 50% のパフォーマンス向上、大規模学習で最大 8% のパフォーマンス向上が確認されました。

要約(オリジナル)

In trajectory forecasting tasks for traffic, future output trajectories can be computed by advancing the ego vehicle’s state with predicted actions according to a kinematics model. By unrolling predicted trajectories via time integration and models of kinematic dynamics, predicted trajectories should not only be kinematically feasible but also relate uncertainty from one timestep to the next. While current works in probabilistic prediction do incorporate kinematic priors for mean trajectory prediction, _variance_ is often left as a learnable parameter, despite uncertainty in one time step being inextricably tied to uncertainty in the previous time step. In this paper, we show simple and differentiable analytical approximations describing the relationship between variance at one timestep and that at the next with the kinematic bicycle model. In our results, we find that encoding the relationship between variance across timesteps works especially well in unoptimal settings, such as with small or noisy datasets. We observe up to a 50% performance boost in partial dataset settings and up to an 8% performance boost in large-scale learning compared to previous kinematic prediction methods on SOTA trajectory forecasting architectures out-of-the-box, with no fine-tuning.

arxiv情報

著者 Laura Zheng,Sanghyun Son,Jing Liang,Xijun Wang,Brian Clipp,Ming C. Lin
発行日 2024-08-17 17:52:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク