Unifying Local and Global Multimodal Features for Place Recognition in Aliased and Low-Texture Environments

要約

知覚的なエイリアシングと弱いテクスチャは、場所認識のタスクに重大な課題をもたらし、同時位置特定とマッピング (SLAM) システムのパフォーマンスを妨げます。
この論文では、UMF (Unifying Local and Global Multimodal featuresの略) と呼ばれる新しいモデルを紹介します。このモデルは、1) ビジョン機能と LiDAR 機能の間のクロスアテンション ブロックによるマルチモダリティを活用し、2) 順序を変更する再ランキング ステージを含みます。
グローバル表現を使用して取得された上位 k 個の候補と一致するローカル特徴に基づいています。
私たちの実験、特に惑星に類似した環境で捕捉された配列に関する実験では、UMF がこれらの困難なエイリアス環境において以前のベースラインを大幅に上回っていることが示されています。
私たちの研究は、あらゆる状況における SLAM の信頼性を高めることを目的としているため、より広い適用性を実現するために、広く使用されている RobotCar データセットでの SLAM のパフォーマンスも調査します。
コードとモデルは https://github.com/DLR-RM/UMF で入手できます。

要約(オリジナル)

Perceptual aliasing and weak textures pose significant challenges to the task of place recognition, hindering the performance of Simultaneous Localization and Mapping (SLAM) systems. This paper presents a novel model, called UMF (standing for Unifying Local and Global Multimodal Features) that 1) leverages multi-modality by cross-attention blocks between vision and LiDAR features, and 2) includes a re-ranking stage that re-orders based on local feature matching the top-k candidates retrieved using a global representation. Our experiments, particularly on sequences captured on a planetary-analogous environment, show that UMF outperforms significantly previous baselines in those challenging aliased environments. Since our work aims to enhance the reliability of SLAM in all situations, we also explore its performance on the widely used RobotCar dataset, for broader applicability. Code and models are available at https://github.com/DLR-RM/UMF

arxiv情報

著者 Alberto García-Hernández,Riccardo Giubilato,Klaus H. Strobl,Javier Civera,Rudolph Triebel
発行日 2024-03-20 08:35:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク