ForestLPR: LiDAR Place Recognition in Forests Attentioning Multiple BEV Density Images

要約

場所の認識は、大規模なローカリゼーションシステムのグローバルな一貫性を維持するために不可欠です。
都市環境での研究はLIDARSまたはカメラを使用して大幅に進行していますが、自然森林のような環境での用途は、主に標準の依然として依存しています。
さらに、森林は、時間の経過に伴う植生の成長の高い自己類似性と実質的な変動のために、特定の課題を提示します。
この作業では、自然林の堅牢なライダーベースの場所認識方法であるForestLPRを提案します。
さまざまな高さでの森林の幾何学の断面画像のセットには、場所の再訪を認識するために必要な情報が含まれていると仮定します。
断面画像は、異なる高さの点雲の水平スライスの\ ac {bev}密度画像で表されます。
私たちのアプローチは、視覚的な変圧器を共有バックボーンとして利用して、ローカル記述子のセットを生成し、多bevインタラクションモジュールを導入して、異なる高さの情報に適応します。
その後、回転不変の場所記述子を生成する集約層が続きます。
パブリックベンチマークからの実際のデータとロボットデータセットからの実際のデータでの方法の有効性を評価し、最先端の(SOTA)メソッドと比較しました。
結果は、ForestLPRがすべての評価で一貫して良好なパフォーマンスを持ち、それぞれ順序内部ループ閉鎖検出と継続的な再局在化について、それぞれ最も近い競合他社よりもRecall@1で7.38 \%と9.11 \%の平均増加を達成し、仮説を検証することを示しています。

要約(オリジナル)

Place recognition is essential to maintain global consistency in large-scale localization systems. While research in urban environments has progressed significantly using LiDARs or cameras, applications in natural forest-like environments remain largely under-explored. Furthermore, forests present particular challenges due to high self-similarity and substantial variations in vegetation growth over time. In this work, we propose a robust LiDAR-based place recognition method for natural forests, ForestLPR. We hypothesize that a set of cross-sectional images of the forest’s geometry at different heights contains the information needed to recognize revisiting a place. The cross-sectional images are represented by \ac{bev} density images of horizontal slices of the point cloud at different heights. Our approach utilizes a visual transformer as the shared backbone to produce sets of local descriptors and introduces a multi-BEV interaction module to attend to information at different heights adaptively. It is followed by an aggregation layer that produces a rotation-invariant place descriptor. We evaluated the efficacy of our method extensively on real-world data from public benchmarks as well as robotic datasets and compared it against the state-of-the-art (SOTA) methods. The results indicate that ForestLPR has consistently good performance on all evaluations and achieves an average increase of 7.38\% and 9.11\% on Recall@1 over the closest competitor on intra-sequence loop closure detection and inter-sequence re-localization, respectively, validating our hypothesis

arxiv情報

著者 Yanqing Shen,Turcan Tuna,Marco Hutter,Cesar Cadena,Nanning Zheng
発行日 2025-03-06 14:24:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク