BEV-LIO(LC): BEV Image Assisted LiDAR-Inertial Odometry with Loop Closure

要約

この作業では、LIDARデータの画像表現を組み合わせた新しいLidar-inertial odometry(LIO)フレームワークであるBev-lio(LC)を紹介します。LIDARデータの画像表現とジオメトリベースのポイントクラウド登録とBEV画像機能を介してループクロージャー(LC)を組み込みます。
ポイント密度を正規化することにより、Lidar PointクラウドをBEV画像に投影し、それにより効率的な機能抽出とマッチングを可能にします。
軽量の畳み込みニューラルネットワーク(CNN)ベースの特徴抽出器を使用して、BEV画像から独特のローカルおよびグローバルな記述子を抽出します。
ローカル記述子は、BEV画像を再注射エラー構築のための高速キーポイントと一致させるために使用されますが、グローバルな記述子はループ閉鎖の検出を促進します。
その後、繰り返された拡張カルマンフィルター(IEKF)内のポイントツープレーン登録とreprojectionエラーの最小化が統合されます。
バックエンドでは、グローバル記述子を使用して、正確なループ閉鎖検出のためにKDトリーインデックス付きキーフレームデータベースを作成します。
ループの閉鎖が検出されると、ランダムサンプルコンセンサス(RANSAC)は、BEV画像マッチングからの粗い変換を計算します。
洗練された変換は、その後、odoMetry因子とともに因子グラフに組み込まれ、局在化のグローバルな一貫性を改善します。
さまざまなライダータイプのさまざまなシナリオで行われた広範な実験は、Bev-lio(LC)が最先端の方法を上回り、競争力のあるローカリゼーションの精度を達成することを示しています。
私たちのコード、ビデオ、補足資料は、https://github.com/hxca1/bev-lio-lcにあります。

要約(オリジナル)

This work introduces BEV-LIO(LC), a novel LiDAR-Inertial Odometry (LIO) framework that combines Bird’s Eye View (BEV) image representations of LiDAR data with geometry-based point cloud registration and incorporates loop closure (LC) through BEV image features. By normalizing point density, we project LiDAR point clouds into BEV images, thereby enabling efficient feature extraction and matching. A lightweight convolutional neural network (CNN) based feature extractor is employed to extract distinctive local and global descriptors from the BEV images. Local descriptors are used to match BEV images with FAST keypoints for reprojection error construction, while global descriptors facilitate loop closure detection. Reprojection error minimization is then integrated with point-to-plane registration within an iterated Extended Kalman Filter (iEKF). In the back-end, global descriptors are used to create a KD-tree-indexed keyframe database for accurate loop closure detection. When a loop closure is detected, Random Sample Consensus (RANSAC) computes a coarse transform from BEV image matching, which serves as the initial estimate for Iterative Closest Point (ICP). The refined transform is subsequently incorporated into a factor graph along with odometry factors, improving the global consistency of localization. Extensive experiments conducted in various scenarios with different LiDAR types demonstrate that BEV-LIO(LC) outperforms state-of-the-art methods, achieving competitive localization accuracy. Our code, video and supplementary materials can be found at https://github.com/HxCa1/BEV-LIO-LC.

arxiv情報

著者 Haoxin Cai,Shenghai Yuan,Xinyi Li,Junfeng Guo,Jianqi Liu
発行日 2025-02-26 15:51:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク