要約
LiDAR ベースの場所認識は、同時位置特定とマッピング (SLAM) および LiDAR 位置特定において重要な役割を果たします。
深層学習ベースや手作りベースのさまざまな手法が登場しているにもかかわらず、回転による場所認識の失敗は依然として重大な課題です。
既存の研究では、特定のトレーニング戦略またはネットワーク構造を通じてこの制限に対処しています。
ただし、前者は満足のいく結果を生成しませんが、後者は主に SO(2) 回転不変性の低減された問題に焦点を当てています。
SO(3) 回転不変性をターゲットとする方法は、識別能力に限界があります。
この論文では、ベクトル ニューロン ネットワーク (VNN) を使用して SO(3) 回転不変性を達成する新しい方法を提案します。
まず、隣接点から回転等価特徴を抽出し、VNN を通じて低次元特徴を高次元空間にマッピングします。
その後、回転等変特徴空間内のユークリッド距離とコサイン距離を回転不変特徴記述子として計算します。
最後に、GeM プーリングを使用して特徴を集約し、グローバル記述子を取得します。
回転不変記述子を定式化する際の重大な情報損失に対処するために、ユークリッド空間近傍内の異なる層にあるフィーチャ間の距離を計算することを提案します。
これにより、計算効率を確保しながら、点群記述子の識別可能性が大幅に向上します。
公開データセットでの実験結果は、私たちのアプローチが回転不変性を実装する他のベースライン手法よりも大幅に優れていると同時に、回転の問題を考慮しない現在の最先端の場所認識手法と同等の結果を達成していることを示しています。
要約(オリジナル)
LiDAR-based place recognition plays a crucial role in Simultaneous Localization and Mapping (SLAM) and LiDAR localization. Despite the emergence of various deep learning-based and hand-crafting-based methods, rotation-induced place recognition failure remains a critical challenge. Existing studies address this limitation through specific training strategies or network structures. However, the former does not produce satisfactory results, while the latter focuses mainly on the reduced problem of SO(2) rotation invariance. Methods targeting SO(3) rotation invariance suffer from limitations in discrimination capability. In this paper, we propose a new method that employs Vector Neurons Network (VNN) to achieve SO(3) rotation invariance. We first extract rotation-equivariant features from neighboring points and map low-dimensional features to a high-dimensional space through VNN. Afterwards, we calculate the Euclidean and Cosine distance in the rotation-equivariant feature space as rotation-invariant feature descriptors. Finally, we aggregate the features using GeM pooling to obtain global descriptors. To address the significant information loss when formulating rotation-invariant descriptors, we propose computing distances between features at different layers within the Euclidean space neighborhood. This greatly improves the discriminability of the point cloud descriptors while ensuring computational efficiency. Experimental results on public datasets show that our approach significantly outperforms other baseline methods implementing rotation invariance, while achieving comparable results with current state-of-the-art place recognition methods that do not consider rotation issues.
arxiv情報
著者 | Gengxuan Tian,Junqiao Zhao,Yingfeng Cai,Fenglin Zhang,Wenjie Mu,Chen Ye |
発行日 | 2023-08-24 15:47:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google