Joint Camera Intrinsic and LiDAR-Camera Extrinsic Calibration

要約

センサーベースの環境認識は、自動運転システムにとって重要なステップであり、複数のセンサー間の正確なキャリブレーションが重要な役割を果たします。
LiDAR とカメラのキャリブレーションでは、既存の方法では、まずカメラの内部をキャリブレーションしてから、LiDAR とカメラの外部をキャリブレーションするのが一般的です。
カメラの内部が最初の段階で正しく調整されていない場合、LiDAR カメラの外部を正確に調整することは容易ではありません。
カメラの複雑な内部構造と、カメラの内部キャリブレーションの効果的な定量的評価方法がないため、実際のキャリブレーションでは、カメラの内部パラメーターのわずかな誤差により、外部パラメーターのキャリブレーションの精度が低下することがよくあります。
この目的のために、カメラの固有パラメータとLiDARカメラの外部パラメータの新しいターゲットベースのジョイントキャリブレーション方法を提案します。
まず、新しいキャリブレーション ボード パターンを設計し、市松模様の周りに 4 つの円形の穴を追加して、LiDAR ポーズを見つけます。
その後、チェッカーボードと円形の穴の特徴の再投影制約の下で定義されたコスト関数は、カメラの固有パラメーター、歪み係数、および LiDAR カメラの外部パラメーターを解決するように設計されています。
最後に、実際の環境とシミュレートされた環境で定量的および定性的な実験が行われ、結果は、提案された方法が精度とロバスト性のパフォーマンスを達成できることを示しています。
オープンソース コードは、https://github.com/OpenCalib/JointCalib で入手できます。

要約(オリジナル)

Sensor-based environmental perception is a crucial step for autonomous driving systems, for which an accurate calibration between multiple sensors plays a critical role. For the calibration of LiDAR and camera, the existing method is generally to calibrate the intrinsic of the camera first and then calibrate the extrinsic of the LiDAR and camera. If the camera’s intrinsic is not calibrated correctly in the first stage, it isn’t easy to calibrate the LiDAR-camera extrinsic accurately. Due to the complex internal structure of the camera and the lack of an effective quantitative evaluation method for the camera’s intrinsic calibration, in the actual calibration, the accuracy of extrinsic parameter calibration is often reduced due to the tiny error of the camera’s intrinsic parameters. To this end, we propose a novel target-based joint calibration method of the camera intrinsic and LiDAR-camera extrinsic parameters. Firstly, we design a novel calibration board pattern, adding four circular holes around the checkerboard for locating the LiDAR pose. Subsequently, a cost function defined under the reprojection constraints of the checkerboard and circular holes features is designed to solve the camera’s intrinsic parameters, distortion factor, and LiDAR-camera extrinsic parameter. In the end, quantitative and qualitative experiments are conducted in actual and simulated environments, and the result shows the proposed method can achieve accuracy and robustness performance. The open-source code is available at https://github.com/OpenCalib/JointCalib.

arxiv情報

著者 Guohang Yan,Feiyu He,Chunlei Shi,Xinyu Cai,Yikang Li
発行日 2023-02-24 03:40:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク