OverlapMamba: Novel Shift State Space Model for LiDAR-based Place Recognition

要約

場所認識は、自律システムが独立した意思決定と安全な運用を実現できるようにするための基盤です。
これは、ループ クロージャの検出や SLAM 内のグローバル ローカリゼーションなどのタスクでも重要です。
これまでの手法では、ありふれた点群表現を入力として利用し、畳み込みニューラル ネットワーク (CNN) またはトランスフォーマー アーキテクチャを使用してさまざまな点群画像入力を使用する深層学習ベースの LiDAR ベースの場所認識 (LPR) アプローチを利用していました。
ただし、最近提案された Mamba 深層学習モデルは、状態空間モデル (SSM) と組み合わせることで、長いシーケンスのモデリングに大きな可能性を秘めています。
そこで、私たちは、入力範囲ビュー (RV) をシーケンスとして表現する、場所認識のための新しいネットワークである OverlapMamba を開発しました。
新しい方法で、確率的再構成アプローチを採用してシフト状態空間モデルを構築し、視覚表現を圧縮します。
3 つの異なる公開データセットで評価された私たちの方法は、ループの閉鎖を効果的に検出し、以前に訪れた場所を異なる方向から横断する場合でも堅牢性を示しています。
生のレンジビュー入力に依存するこの手法は、時間の複雑さと速度の点で一般的な LiDAR とマルチビューの組み合わせ方法よりも優れており、強力な場所認識機能とリアルタイム効率を示しています。

要約(オリジナル)

Place recognition is the foundation for enabling autonomous systems to achieve independent decision-making and safe operations. It is also crucial in tasks such as loop closure detection and global localization within SLAM. Previous methods utilize mundane point cloud representations as input and deep learning-based LiDAR-based Place Recognition (LPR) approaches employing different point cloud image inputs with convolutional neural networks (CNNs) or transformer architectures. However, the recently proposed Mamba deep learning model, combined with state space models (SSMs), holds great potential for long sequence modeling. Therefore, we developed OverlapMamba, a novel network for place recognition, which represents input range views (RVs) as sequences. In a novel way, we employ a stochastic reconstruction approach to build shift state space models, compressing the visual representation. Evaluated on three different public datasets, our method effectively detects loop closures, showing robustness even when traversing previously visited locations from different directions. Relying on raw range view inputs, it outperforms typical LiDAR and multi-view combination methods in time complexity and speed, indicating strong place recognition capabilities and real-time efficiency.

arxiv情報

著者 Qiuchi Xiang,Jintao Cheng,Jiehao Luo,Jin Wu,Rui Fan,Xieyuanli Chen,Xiaoyu Tang
発行日 2024-05-13 17:46:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク