要約
人間の動きを理解することは、正確な歩行者の軌跡予測には重要です。
従来の方法は通常、監視された学習に依存しています。この学習は、予測された軌跡に対して地上軌道ラベルが直接最適化されています。
これにより、長期尾のあるデータ分布によって引き起こされる制限が増幅され、モデルが異常な行動をキャプチャすることが困難になります。
この作業では、位置、速度、および加速を明示的にモデル化する自己監視された歩行者軌道予測フレームワークを提案します。
速度と加速情報を活用して、特徴注入と自己監視の動きの一貫性メカニズムを通じて位置予測を強化します。
私たちのモデルは、速度の特徴を位置ストリームに階層的に注入します。
加速機能が速度ストリームに注入されます。
これにより、モデルは位置、速度、および加速度を共同で予測できます。
予測された位置から、対応する擬似速度と加速度を計算し、モデルがデータ生成された擬似ラベルから学習し、したがって自己監視学習を実現できるようにします。
さらに、物理的原則に基づいた動きの一貫性評価戦略を設計します。
それは、それを歴史的ダイナミクスと比較することにより、最も合理的な予測されるモーショントレンドを選択し、この傾向を使用して軌跡の生成を導き、制約します。
Eth-usyおよびStanfordドローンデータセットで実験を実施し、両方のデータセットで最先端のパフォーマンスを達成することを実証しています。
要約(オリジナル)
Understanding human motion is crucial for accurate pedestrian trajectory prediction. Conventional methods typically rely on supervised learning, where ground-truth labels are directly optimized against predicted trajectories. This amplifies the limitations caused by long-tailed data distributions, making it difficult for the model to capture abnormal behaviors. In this work, we propose a self-supervised pedestrian trajectory prediction framework that explicitly models position, velocity, and acceleration. We leverage velocity and acceleration information to enhance position prediction through feature injection and a self-supervised motion consistency mechanism. Our model hierarchically injects velocity features into the position stream. Acceleration features are injected into the velocity stream. This enables the model to predict position, velocity, and acceleration jointly. From the predicted position, we compute corresponding pseudo velocity and acceleration, allowing the model to learn from data-generated pseudo labels and thus achieve self-supervised learning. We further design a motion consistency evaluation strategy grounded in physical principles; it selects the most reasonable predicted motion trend by comparing it with historical dynamics and uses this trend to guide and constrain trajectory generation. We conduct experiments on the ETH-UCY and Stanford Drone datasets, demonstrating that our method achieves state-of-the-art performance on both datasets.
arxiv情報
著者 | Yizhou Huang,Yihua Cheng,Kezhi Wang |
発行日 | 2025-03-31 16:17:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google