要約
過去数十年にわたり、数多くの LiDAR 慣性オドメトリ (LIO) アルゴリズムが開発され、さまざまな環境で満足のいくパフォーマンスを実証してきました。
これらのアルゴリズムのほとんどは、主に屋外の開放環境で検証されていますが、屋内の限られた環境では課題に直面することがよくあります。
このような屋内環境では、特に複数階の建物では、LiDAR スキャンや壁や階段などの繰り返しの構造的特徴の急速な変化により、信頼性の高い点群の登録が問題になります。
この論文では、多階構造の屋内環境における同時位置特定とマッピング (SLAM) のために設計された法線ベクトルベースの LIO フレームワークである NV-LIO を紹介します。
私たちのアプローチでは、LiDAR スキャンから法線ベクトルを抽出し、それらを対応検索に利用して点群登録パフォーマンスを向上させます。
確実な位置合わせを確実にするために、法線ベクトルの方向の分布が分析され、縮退の状況が検査されてマッチングの不確実性が調整されます。
さらに、壁によってブロックされる誤った対応を回避するために、視点ベースのループ クロージャ モジュールが実装されています。
提案された方法は、公開データセットと独自のデータセットを通じて検証されます。
コミュニティに貢献するために、コードは https://github.com/dhchung/nv_lio で公開されます。
要約(オリジナル)
Over the last few decades, numerous LiDAR-inertial odometry (LIO) algorithms have been developed, demonstrating satisfactory performance across diverse environments. Most of these algorithms have predominantly been validated in open outdoor environments, however they often encounter challenges in confined indoor settings. In such indoor environments, reliable point cloud registration becomes problematic due to the rapid changes in LiDAR scans and repetitive structural features like walls and stairs, particularly in multifloor buildings. In this paper, we present NV-LIO, a normal vector based LIO framework, designed for simultaneous localization and mapping (SLAM) in indoor environments with multifloor structures. Our approach extracts the normal vectors from the LiDAR scans and utilizes them for correspondence search to enhance the point cloud registration performance. To ensure robust registration, the distribution of the normal vector directions is analyzed, and situations of degeneracy are examined to adjust the matching uncertainty. Additionally, a viewpoint based loop closure module is implemented to avoid wrong correspondences that are blocked by the walls. The propsed method is validated through public datasets and our own dataset. To contribute to the community, the code will be made public on https://github.com/dhchung/nv_lio.
arxiv情報
著者 | Dongha Chung,Jinwhan Kim |
発行日 | 2024-05-21 08:05:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google