要約
ほとんどの自律移動ロボットにとって、一貫性のあるマップが鍵となります。
彼らは、このようなマップを構築するために SLAM アプローチを使用することがよくあります。
場所認識によるループ クロージャは、グローバル ドリフトを軽減することで正確な姿勢推定を維持するのに役立ちます。
この論文では、LiDAR 搭載ロボットを備えた屋外 SLAM 用の堅牢なループ閉鎖検出パイプラインを紹介します。
この方法では、スキャン パターン、視野、解像度が異なるさまざまな LiDAR センサーを処理します。
LiDAR スキャンからローカル マップを生成し、地面位置調整モジュールを使用して位置合わせして、LiDAR の平面運動と非平面運動の両方を処理し、プラットフォーム全体での適用性を確保します。
この方法では、これらのローカル マップの密度を維持した鳥瞰図投影を使用し、場所認識のためにそこから ORB 特徴記述子を抽出します。
効率的な検索のために特徴記述子を二分探索ツリーに保存し、自己類似性枝刈りによって繰り返し環境における知覚的なエイリアシングに対処します。
公開データセットと自己記録データセットに関する広範な実験により、LiDAR スキャン パターン、視野、モーション プロファイルに依存しない、正確なループ クロージャー検出、長期的な位置特定、クロスプラットフォームのマルチマップ アライメントが実証されました。
要約(オリジナル)
Consistent maps are key for most autonomous mobile robots. They often use SLAM approaches to build such maps. Loop closures via place recognition help maintain accurate pose estimates by mitigating global drift. This paper presents a robust loop closure detection pipeline for outdoor SLAM with LiDAR-equipped robots. The method handles various LiDAR sensors with different scanning patterns, field of views and resolutions. It generates local maps from LiDAR scans and aligns them using a ground alignment module to handle both planar and non-planar motion of the LiDAR, ensuring applicability across platforms. The method uses density-preserving bird’s eye view projections of these local maps and extracts ORB feature descriptors from them for place recognition. It stores the feature descriptors in a binary search tree for efficient retrieval, and self-similarity pruning addresses perceptual aliasing in repetitive environments. Extensive experiments on public and self-recorded datasets demonstrate accurate loop closure detection, long-term localization, and cross-platform multi-map alignment, agnostic to the LiDAR scanning patterns, fields of view, and motion profiles.
arxiv情報
著者 | Saurabh Gupta,Tiziano Guadagnino,Benedikt Mersch,Niklas Trekel,Meher V. R. Malladi,Cyrill Stachniss |
発行日 | 2025-01-13 15:17:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google