Matched Filtering based LiDAR Place Recognition for Urban and Natural Environments

要約

場所認識は自律ナビゲーションにおける重要なタスクであり、最初の横断から以前に訪れた場所を再識別することが含まれます。
視覚的場所認識 (VPR) とは異なり、LiDAR 場所認識 (LPR) は照明、季節、テクスチャの変化に強いため、構造化された都市環境のベンチマーク データセットで高いパフォーマンスを実現します。
しかし、多様な環境で高いパフォーマンスと最小限のトレーニングで動作できる方法へのニーズが高まっています。
この論文では、都市環境と非構造化自然環境の両方に対して、ロトトランスレーション不変の場所認識と相対姿勢推定を実行する手作りのマッチング戦略を提案します。
私たちのアプローチは、Birds Eye View (BEV) グローバル記述子を構築し、ノイズの中で既知の信号を検出するための信号処理技術であるマッチド フィルターを使用した 2 段階の検索を採用します。
NCLT、Oxford Radar、WildPlaces データセットに対する広範なテストにより、場所認識と相対姿勢推定メトリクスにわたる最先端 (SoTA) のパフォーマンスが一貫して実証され、以前の SoTA よりも再現率が最大 15% 高くなります。

要約(オリジナル)

Place recognition is an important task within autonomous navigation, involving the re-identification of previously visited locations from an initial traverse. Unlike visual place recognition (VPR), LiDAR place recognition (LPR) is tolerant to changes in lighting, seasons, and textures, leading to high performance on benchmark datasets from structured urban environments. However, there is a growing need for methods that can operate in diverse environments with high performance and minimal training. In this paper, we propose a handcrafted matching strategy that performs roto-translation invariant place recognition and relative pose estimation for both urban and unstructured natural environments. Our approach constructs Birds Eye View (BEV) global descriptors and employs a two-stage search using matched filtering — a signal processing technique for detecting known signals amidst noise. Extensive testing on the NCLT, Oxford Radar, and WildPlaces datasets consistently demonstrates state-of-the-art (SoTA) performance across place recognition and relative pose estimation metrics, with up to 15% higher recall than previous SoTA.

arxiv情報

著者 Therese Joseph,Tobias Fischer,Michael Milford
発行日 2024-09-06 02:52:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク