要約
軌跡予測は、コンピュータビジョンや自律走行において、特に歩行者の行動を理解し、積極的な意思決定を可能にするための基本である。この分野の既存のアプローチは、正確で完全な観測データを前提としていることが多く、視野外のオブジェクトに関連する課題や、カメラ範囲の制限、物理的な障害物、ノイズ除去されたセンサデータのためのグランドトゥルースの不在によるセンサデータ固有のノイズを無視している。このような見落としは、本質的な非可視物体を見逃すことにつながるため、安全上の重大な問題である。このギャップを埋めるために、我々はビジョンポジショニング技術を活用した視界外軌道予測のための新しい方法を提示する。本手法は、教師無しでノイズの多いセンサ観測値をノイズ除去し、センサに基づく視認不能物体の軌跡を視覚的軌跡に正確にマッピングする。この手法は、Vi-FiとJRDBのデータセットにおいて、視認外のノイズの多いセンサーの軌跡のノイズ除去と予測において最先端の性能を実証した。軌跡予測精度を向上させ、視界外物体の課題に対処することで、我々の研究は複雑な環境における自律走行の安全性と信頼性の向上に大きく貢献する。我々の研究は、Out-Of-Sight Trajectory prediction (OOSTraj)に向けた最初の取り組みであり、将来の研究のための新しいベンチマークを設定します。コードは ゙URL{https://github.com/Hai-chao-Zhang/OOSTraj} で入手可能です。
要約(オリジナル)
Trajectory prediction is fundamental in computer vision and autonomous driving, particularly for understanding pedestrian behavior and enabling proactive decision-making. Existing approaches in this field often assume precise and complete observational data, neglecting the challenges associated with out-of-view objects and the noise inherent in sensor data due to limited camera range, physical obstructions, and the absence of ground truth for denoised sensor data. Such oversights are critical safety concerns, as they can result in missing essential, non-visible objects. To bridge this gap, we present a novel method for out-of-sight trajectory prediction that leverages a vision-positioning technique. Our approach denoises noisy sensor observations in an unsupervised manner and precisely maps sensor-based trajectories of out-of-sight objects into visual trajectories. This method has demonstrated state-of-the-art performance in out-of-sight noisy sensor trajectory denoising and prediction on the Vi-Fi and JRDB datasets. By enhancing trajectory prediction accuracy and addressing the challenges of out-of-sight objects, our work significantly contributes to improving the safety and reliability of autonomous driving in complex environments. Our work represents the first initiative towards Out-Of-Sight Trajectory prediction (OOSTraj), setting a new benchmark for future research. The code is available at \url{https://github.com/Hai-chao-Zhang/OOSTraj}.
arxiv情報
| 著者 | Haichao Zhang,Yi Xu,Hongsheng Lu,Takayuki Shimizu,Yun Fu |
| 発行日 | 2024-04-02 18:30:29+00:00 |
| arxivサイト | arxiv_id(pdf) |