Coco-LIC: Continuous-Time Tightly-Coupled LiDAR-Inertial-Camera Odometry using Non-Uniform B-spline

要約

この論文では、不均一な B スプラインを利用して、LiDAR、IMU、カメラからの測定値を密に結合する、効率的な連続時間 LiDAR 慣性カメラ オドメトリを提案します。
均一 B スプライン ベースの連続時間手法とは対照的に、当社の不均一 B スプライン アプローチは、リアルタイム効率と高精度を達成するという点で大きな利点をもたらします。
これは、動きの変化するダイナミクスを考慮して、制御ポイントを動的かつ適応的に配置することによって実現されます。
短いスライディング ウィンドウの最適化内で異種の LiDAR 慣性カメラ データの効率的な融合を可能にするために、グローバル LiDAR マップからの対応するマップ ポイントを使用して視覚ピクセルに奥行きを割り当て、関連するピクセルのフレームからマップへの再投影係数を定式化します。
現在の画像フレーム。
この方法により、通常、連続時間軌跡推定のために多数の制御ポイントを備えた長いスライディング ウィンドウが必要となる、視覚ピクセルの深度最適化の必要性が回避されます。
私たちは、実世界のデータセットに対して専用の実験を実施し、不均一な連続時間軌跡表現を採用する利点と有効性を実証します。
当社の LiDAR 慣性カメラ オドメトリ システムも、センサーの劣化を伴う困難なシナリオと大規模なシナリオの両方で広範囲に評価され、最先端の方法と同等以上の精度を示しています。
このペーパーのコードベースも https://github.com/APRIL-ZJU/Coco-LIC でオープンソース化されます。

要約(オリジナル)

In this paper, we propose an efficient continuous-time LiDAR-Inertial-Camera Odometry, utilizing non-uniform B-splines to tightly couple measurements from the LiDAR, IMU, and camera. In contrast to uniform B-spline-based continuous-time methods, our non-uniform B-spline approach offers significant advantages in terms of achieving real-time efficiency and high accuracy. This is accomplished by dynamically and adaptively placing control points, taking into account the varying dynamics of the motion. To enable efficient fusion of heterogeneous LiDAR-Inertial-Camera data within a short sliding-window optimization, we assign depth to visual pixels using corresponding map points from a global LiDAR map, and formulate frame-to-map reprojection factors for the associated pixels in the current image frame. This way circumvents the necessity for depth optimization of visual pixels, which typically entails a lengthy sliding window with numerous control points for continuous-time trajectory estimation. We conduct dedicated experiments on real-world datasets to demonstrate the advantage and efficacy of adopting non-uniform continuous-time trajectory representation. Our LiDAR-Inertial-Camera odometry system is also extensively evaluated on both challenging scenarios with sensor degenerations and large-scale scenarios, and has shown comparable or higher accuracy than the state-of-the-art methods. The codebase of this paper will also be open-sourced at https://github.com/APRIL-ZJU/Coco-LIC.

arxiv情報

著者 Xiaolei Lang,Chao Chen,Kai Tang,Yukai Ma,Jiajun Lv,Yong Liu,Xingxing Zuo
発行日 2023-09-18 14:28:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク