YOCO: You Only Calibrate Once for Accurate Extrinsic Parameter in LiDAR-Camera Systems

要約

カメラと LiDAR で構成されるマルチセンサー フュージョン システムでは、正確な外部キャリブレーションがシステムの長期安定性と環境の正確な認識に貢献します。
しかし、対応点の抽出と登録に基づく手法は、自動化や精度の点で依然として課題を抱えている。
この論文では、対応点登録の必要性を回避する、LiDAR カメラ システム用の新しい完全自動外部キャリブレーション方法を提案します。
我々のアプローチでは、必要なLiDAR対応点を抽出するための新しいアルゴリズムを提案します。
この方法では、平面点群の方向を計算し、距離と密度に基づくしきい値を適用して点を抽出することで、無関係な点を効果的に除外できます。
抽出された点の投影に LiDAR とカメラの間の外部パラメータを導入し、共面制約を構築することで、対応点の登録の必要性を回避します。
これらのパラメータは、外部問題を解決するために最適化されます。
私たちは、複数の LiDAR カメラ システムのセットにわたって方法を検証しました。
合成実験では、私たちの方法は現在のキャリブレーション技術と比較して優れたパフォーマンスを示します。
実世界のデータ実験では、提案されたアルゴリズムの精度と堅牢性がさらに確認され、LiDAR とカメラの間の平均回転および並進校正誤差は、それぞれ 0.05 度未満および 0.015m 未満でした。
この方法により、自動かつ正確な外部キャリブレーションが 1 つのステップで可能になり、対応点登録の使用を超えたキャリブレーション アルゴリズムの可能性が強調され、LiDAR カメラ システムのキャリブレーションの自動化と精度が向上します。

要約(オリジナル)

In a multi-sensor fusion system composed of cameras and LiDAR, precise extrinsic calibration contributes to the system’s long-term stability and accurate perception of the environment. However, methods based on extracting and registering corresponding points still face challenges in terms of automation and precision. This paper proposes a novel fully automatic extrinsic calibration method for LiDAR-camera systems that circumvents the need for corresponding point registration. In our approach, a novel algorithm to extract required LiDAR correspondence point is proposed. This method can effectively filter out irrelevant points by computing the orientation of plane point clouds and extracting points by applying distance- and density-based thresholds. We avoid the need for corresponding point registration by introducing extrinsic parameters between the LiDAR and camera into the projection of extracted points and constructing co-planar constraints. These parameters are then optimized to solve for the extrinsic. We validated our method across multiple sets of LiDAR-camera systems. In synthetic experiments, our method demonstrates superior performance compared to current calibration techniques. Real-world data experiments further confirm the precision and robustness of the proposed algorithm, with average rotation and translation calibration errors between LiDAR and camera of less than 0.05 degree and 0.015m, respectively. This method enables automatic and accurate extrinsic calibration in a single one step, emphasizing the potential of calibration algorithms beyond using corresponding point registration to enhance the automation and precision of LiDAR-camera system calibration.

arxiv情報

著者 Tianle Zeng,Dengke He,Feifan Yan,Meixi He
発行日 2024-07-25 13:44:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク