Conformal Trajectory Prediction with Multi-View Data Integration in Cooperative Driving

要約

軌道予測に関する現在の研究は、主に自車両の車載センサーによって収集されたデータに依存している。車車間(V2V)通信や車車間(V2I)通信などのコネクテッド技術の急速な進歩により、別の視点からの貴重な情報に無線ネットワーク経由でアクセスできるようになりました。代替視点からの情報を統合することで、オクルージョンや視野の制限など、単一視点に伴う固有の制限を克服できる可能性がある。この研究では、既存の単一視点モデルを拡張することにより、多視点データをモデル化するように設計された新しい軌跡予測フレームワークであるV2INetを紹介する。マルチビューデータを手作業で融合させたり、別個の学習段階として定式化したりする従来のアプローチとは異なり、我々のモデルはエンドツーエンドの学習をサポートし、柔軟性と性能の両方を向上させる。さらに、予測されたマルチモーダル軌跡は、有効かつ効率的な信頼領域を得るために、ポストホックコンフォーマル予測モジュールによって較正される。我々は、実世界のV2IデータセットV2X-Seqを用いてフレームワーク全体を評価した。その結果、最終的な変位誤差(FDE)とミス率(MR)において、シングルGPUで優れた性能を実証した。コードは以下で公開されています:\https://github.com/xichennn/V2I_trajectory_prediction}。

要約(オリジナル)

Current research on trajectory prediction primarily relies on data collected by onboard sensors of an ego vehicle. With the rapid advancement in connected technologies, such as vehicle-to-vehicle (V2V) and vehicle-to-infrastructure (V2I) communication, valuable information from alternate views becomes accessible via wireless networks. The integration of information from alternative views has the potential to overcome the inherent limitations associated with a single viewpoint, such as occlusions and limited field of view. In this work, we introduce V2INet, a novel trajectory prediction framework designed to model multi-view data by extending existing single-view models. Unlike previous approaches where the multi-view data is manually fused or formulated as a separate training stage, our model supports end-to-end training, enhancing both flexibility and performance. Moreover, the predicted multimodal trajectories are calibrated by a post-hoc conformal prediction module to get valid and efficient confidence regions. We evaluated the entire framework using the real-world V2I dataset V2X-Seq. Our results demonstrate superior performance in terms of Final Displacement Error (FDE) and Miss Rate (MR) using a single GPU. The code is publicly available at: \url{https://github.com/xichennn/V2I_trajectory_prediction}.

arxiv情報

著者 Xi Chen,Rahul Bhadani,Larry Head
発行日 2024-08-02 13:00:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク