要約
センサーフュージョンは、自律走行車の安全で堅牢な運用に不可欠である。複数のセンサデータを共通の空間参照フレームに正確に融合させるためには、センサ間の正確な外部キャリブレーションが必要である。本論文では、ターゲットフリーの外部キャリブレーションアルゴリズムを提案する。このアルゴリズムは、グラウンドトゥルースのトレーニングデータ、人為的に制約された運動軌跡、手作業で設計された特徴、オフライン最適化を必要とせず、正確で精度が高く、初期化誤差に対して非常にロバストである。 オンラインカメラ-LiDAR外部キャリブレーションに関する現在の研究のほとんどは、スケールでキャプチャすることが不可能なグランドトゥルーストレーニングデータを必要とします。我々は、2012年に初めて提案された解析的相互情報に基づく方法を再検討し、幾何学的特徴がカメラ-LiDARの外部キャリブレーションにロバストな情報メトリックを提供することを実証します。KITTIとKITTI-360フィッシュアイデータセットを用いて、提案する改良を実証します。
要約(オリジナル)
Sensor fusion is vital for the safe and robust operation of autonomous vehicles. Accurate extrinsic sensor to sensor calibration is necessary to accurately fuse multiple sensor’s data in a common spatial reference frame. In this paper, we propose a target free extrinsic calibration algorithm that requires no ground truth training data, artificially constrained motion trajectories, hand engineered features or offline optimization and that is accurate, precise and extremely robust to initialization error. Most current research on online camera-LiDAR extrinsic calibration requires ground truth training data which is impossible to capture at scale. We revisit analytical mutual information based methods first proposed in 2012 and demonstrate that geometric features provide a robust information metric for camera-LiDAR extrinsic calibration. We demonstrate our proposed improvement using the KITTI and KITTI-360 fisheye data set.
arxiv情報
著者 | Jack Borer,Jeremy Tschirner,Florian Ölsner,Stefan Milz |
発行日 | 2023-11-03 13:30:31+00:00 |
arxivサイト | arxiv_id(pdf) |