OverlapNetVLAD: A Coarse-to-Fine Framework for LiDAR-based Place Recognition

要約

場所の認識は、ロボティクスにおいて挑戦的でありながら重要なタスクです。
既存の 3D LiDAR 場所認識方法は、特徴表現能力が制限されており、検索時間が長いという欠点があります。
これらの課題に対処するために、鳥瞰図 (BEV) 特徴抽出、粗粒度マッチング、および細粒度検証を組み合わせた、3D LiDAR 場所認識のための新しい粗から細までのフレームワークを提案します。
大まかな段階では、フレームワークは BEV 機能に含まれる豊富なコンテキスト情報を活用して、グローバル記述子を生成します。
次に、ディスクリプタ マッチングによって上位\textit{K} 個の最も類似した候補が識別されます。これは高速ですが粗粒度です。
細かい段階では、オーバーラップ推定ネットワークが対応するBEV機能を再利用してオーバーラップ領域を予測し、細心の注意を払って正確なマッチングを可能にします。
KITTI オドメトリ ベンチマークの実験結果は、最先端の方法と比較して、私たちのフレームワークが優れたパフォーマンスを達成することを示しています。
私たちのコードは、\url{https://github.com/fcchit/OverlapNetVLAD} で入手できます。

要約(オリジナル)

Place recognition is a challenging yet crucial task in robotics. Existing 3D LiDAR place recognition methods suffer from limited feature representation capability and long search times. To address these challenges, we propose a novel coarse-to-fine framework for 3D LiDAR place recognition that combines Birds’ Eye View (BEV) feature extraction, coarse-grained matching, and fine-grained verification. In the coarse stage, our framework leverages the rich contextual information contained in BEV features to produce global descriptors. Then the top-\textit{K} most similar candidates are identified via descriptor matching, which is fast but coarse-grained. In the fine stage, our overlap estimation network reuses the corresponding BEV features to predict the overlap region, enabling meticulous and precise matching. Experimental results on the KITTI odometry benchmark demonstrate that our framework achieves leading performance compared to state-of-the-art methods. Our code is available at: \url{https://github.com/fcchit/OverlapNetVLAD}.

arxiv情報

著者 Chencan Fu,Lin Li,Linpeng Peng,Yukai Ma,Xiangrui Zhao,Yong Liu
発行日 2023-03-13 05:56:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク