RMP-YOLO: A Robust Motion Predictor for Partially Observable Scenarios even if You Only Look Once

要約

RMP-Yoloは、不完全な入力データを使用しても堅牢なモーション予測を提供するように設計された統一されたフレームワークです。
私たちの重要な洞察は、完全で信頼できる歴史的軌跡データが正確なモーション予測を確保する上で極めて重要な役割を果たすという観察に由来しています。
したがって、予測モジュールに供給する前に、無傷の歴史的軌跡の再構築を優先する新しいパラダイムを提案します。
私たちのアプローチでは、空間的および時間的特徴の抽出と融合を強化するための新しいシーントークン化モジュールを紹介します。
これに続いて、提案された回復モジュールは、ローカルマップトポロジと近くのエージェントとの相互作用を活用することにより、エージェントの不完全な歴史的軌跡を再構築します。
再構築されたクリーンな履歴データは、下流の予測モジュールに統合されます。
私たちのフレームワークは、さまざまな長さの欠落データを効果的に処理することができ、高い予測の精度を維持しながら、観測ノイズに対して堅牢なままです。
さらに、リカバリモジュールは既存の予測モデルと互換性があり、シームレスな統合が確保されます。
広範な実験では、アプローチの有効性を検証し、実際の自律車両での展開がその実用性を確認します。
2024年のWaymo Motion Prediction Competitionである私たちの方法であるRMP-Yoloは、最先端のパフォーマンスを達成し、3位を獲得しています。

要約(オリジナル)

We introduce RMP-YOLO, a unified framework designed to provide robust motion predictions even with incomplete input data. Our key insight stems from the observation that complete and reliable historical trajectory data plays a pivotal role in ensuring accurate motion prediction. Therefore, we propose a new paradigm that prioritizes the reconstruction of intact historical trajectories before feeding them into the prediction modules. Our approach introduces a novel scene tokenization module to enhance the extraction and fusion of spatial and temporal features. Following this, our proposed recovery module reconstructs agents’ incomplete historical trajectories by leveraging local map topology and interactions with nearby agents. The reconstructed, clean historical data is then integrated into the downstream prediction modules. Our framework is able to effectively handle missing data of varying lengths and remains robust against observation noise, while maintaining high prediction accuracy. Furthermore, our recovery module is compatible with existing prediction models, ensuring seamless integration. Extensive experiments validate the effectiveness of our approach, and deployment in real-world autonomous vehicles confirms its practical utility. In the 2024 Waymo Motion Prediction Competition, our method, RMP-YOLO, achieves state-of-the-art performance, securing third place.

arxiv情報

著者 Jiawei Sun,Jiahui Li,Tingchen Liu,Chengran Yuan,Shuo Sun,Zefan Huang,Anthony Wong,Keng Peng Tee,Marcelo H. Ang Jr
発行日 2025-06-11 06:23:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク