PriorMotion: Generative Class-Agnostic Motion Prediction with Raster-Vector Motion Field Priors

要約

信頼できる空間と動きの認識は、安全な自律的なナビゲーションに不可欠です。
最近、Lidar Point Cloudsに由来するBird’seye View(BEV)セルグリッドに関するクラスに依存しないモーション予測が大きな注目を集めています。
ただし、既存のフレームワークは通常、ピクセルごとにセルの分類とモーション予測を実行し、剛性制約、時間的一貫性、エージェント間の将来の相互作用などの重要なモーションフィールドプライアーを無視します。
これらの制限は、特にまばらで遠い地域でのパフォーマンスの低下につながります。
これらの課題に対処するために、\ textBf {priormotion}を紹介します。これは、構造化された潜在空間内の分布としてそれらをモデル化することにより、本質的な動き事項を統合するクラスに依存しないモーション予測のために設計された革新的な生成フレームワークです。
具体的には、私たちの方法は、ラスターベクトル表現を使用して構造化された運動プライアーをキャプチャし、明確な動的コンポーネントと静的コンポーネントを備えた変動自動エンコーダーを使用して、潜在空間で将来の動き分布を学習します。
Nuscenesデータセットの実験は、\ textBf {priormotion}が、従来のメトリックと新たに提案された評価基準の両方で最先端の方法を上回ることを示しています。
特に、急速に移動するオブジェクトの精度が約15.24 \%の改善、一般化の3.59%の増加、運動安定性の0.0163の減少、遠隔地域の予測エラーの31.52 \%の減少を達成します。
FMCW LIDARセンサーのさらなる検証は、アプローチの堅牢性を確認します。

要約(オリジナル)

Reliable spatial and motion perception is essential for safe autonomous navigation. Recently, class-agnostic motion prediction on bird’s-eye view (BEV) cell grids derived from LiDAR point clouds has gained significant attention. However, existing frameworks typically perform cell classification and motion prediction on a per-pixel basis, neglecting important motion field priors such as rigidity constraints, temporal consistency, and future interactions between agents. These limitations lead to degraded performance, particularly in sparse and distant regions. To address these challenges, we introduce \textbf{PriorMotion}, an innovative generative framework designed for class-agnostic motion prediction that integrates essential motion priors by modeling them as distributions within a structured latent space. Specifically, our method captures structured motion priors using raster-vector representations and employs a variational autoencoder with distinct dynamic and static components to learn future motion distributions in the latent space. Experiments on the nuScenes dataset demonstrate that \textbf{PriorMotion} outperforms state-of-the-art methods across both traditional metrics and our newly proposed evaluation criteria. Notably, we achieve improvements of approximately 15.24\% in accuracy for fast-moving objects, an 3.59\% increase in generalization, a reduction of 0.0163 in motion stability, and a 31.52\% reduction in prediction errors in distant regions. Further validation on FMCW LiDAR sensors confirms the robustness of our approach.

arxiv情報

著者 Kangan Qian,Jinyu Miao,Xinyu Jiao,Ziang Luo,Zheng Fu,Yining Shi,Yunlong Wang,Kun Jiang,Diange Yang
発行日 2025-03-10 13:44:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.PF, cs.RO パーマリンク