BEVPlace: Learning LiDAR-based Place Recognition using Bird’s Eye View Images

要約

場所認識は、長期 SLAM システムの重要なモジュールです。
現在の LiDAR ベースの場所認識方法は、通常、順序付けされていない点や距離画像などの点群の表現に基づいています。
これらの方法は、検索の高い再現率を実現しますが、ビューの変化やシーンの変化の場合、パフォーマンスが低下する可能性があります。
この作業では、場所認識における異なる表現、つまり鳥瞰図 (BEV) 画像の可能性を探ります。
BEV 画像の構造内容は、点群の回転と平行移動の影響を受けにくいことがわかります。
繊細な設計なしで、BEV 画像でトレーニングされた単純な VGGNet が、わずかな視点変更のシーンで最先端の場所認識方法と同等のパフォーマンスを達成することを検証します。
より堅牢な場所認識のために、BEVPlace と呼ばれる回転不変ネットワークを設計します。
グループ畳み込みを使用して、画像から回転同変ローカル機能を抽出し、グローバル機能集約のために NetVLAD を使用します。
さらに、BEV フィーチャ間の距離は、点群のジオメトリ距離と相関していることがわかります。
観測に基づいて、クエリクラウドの位置を推定する方法を開発し、場所認識の使用を拡張します。
大規模な公開データセットで実施された実験は、私たちの方法が 1) 再現率に関して最先端のパフォーマンスを達成すること、2) 変更を表示するのに堅牢であること、3) 強力な一般化能力を示すこと、および 4) 推定できることを示しています。
クエリ点群の位置。
ソース コードは、https://github.com/zjuluolun/BEVPlace で公開されます。

要約(オリジナル)

Place recognition is a key module for long-term SLAM systems. Current LiDAR-based place recognition methods are usually based on representations of point clouds such as unordered points or range images. These methods achieve high recall rates of retrieval, but their performance may degrade in the case of view variation or scene changes. In this work, we explore the potential of a different representation in place recognition, i.e. bird’s eye view (BEV) images. We observe that the structural contents of BEV images are less influenced by rotations and translations of point clouds. We validate that, without any delicate design, a simple VGGNet trained on BEV images achieves comparable performance with the state-of-the-art place recognition methods in scenes of slight viewpoint changes. For more robust place recognition, we design a rotation-invariant network called BEVPlace. We use group convolution to extract rotation-equivariant local features from the images and NetVLAD for global feature aggregation. In addition, we observe that the distance between BEV features is correlated with the geometry distance of point clouds. Based on the observation, we develop a method to estimate the position of the query cloud, extending the usage of place recognition. The experiments conducted on large-scale public datasets show that our method 1) achieves state-of-the-art performance in terms of recall rates, 2) is robust to view changes, 3) shows strong generalization ability, and 4) can estimate the positions of query point clouds. Source code will be made publicly available at https://github.com/zjuluolun/BEVPlace.

arxiv情報

著者 Lun Luo,Shuhang Zheng,Yixuan Li,Yongzhi Fan,Beinan Yu,Siyuan Cao,Huiliang Shen
発行日 2023-02-28 05:37:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク