OPAL: Visibility-aware LiDAR-to-OpenStreetMap Place Recognition via Adaptive Radial Fusion

要約

Lidar Placeの認識は、大規模な屋外環境における自律的なナビゲーションとクロスモーダルのローカリゼーションの重要な機能です。
既存のアプローチは、主に事前に構築された3D密度の高いマップまたは空中画像に依存しており、重大なストレージオーバーヘッドを課し、リアルタイムの適応性を欠いています。
この論文では、OpenstreetMap(OSM)を軽量で最新の事前にレバレッジするというLidar Place認識の新しいネットワークであるOpalを提案します。
私たちの主要な革新は、2つの慎重に設計されたコンポーネントを介して、スパースライダースキャンと構造化されたOSMデータの間のドメインの格差を埋めることにあります。
第一に、両方のモダリティから最大の観測可能な領域を識別して機能学習を導くクロスモーダル視認性マスク。
第二に、放射状の特徴を識別的なグローバル記述子に動的に統合する適応型放射状融合モジュール。
KittiおよびKitti-360のデータセットでの広範な実験は、Opalの優位性を示しており、Top-1検索されたマッチの @1mしきい値で15.98%高いリコールを達成し、最先端のアプローチと比較して12倍速い推論速度を達成しています。
コードとデータセットは公開されます。

要約(オリジナル)

LiDAR place recognition is a critical capability for autonomous navigation and cross-modal localization in large-scale outdoor environments. Existing approaches predominantly depend on pre-built 3D dense maps or aerial imagery, which impose significant storage overhead and lack real-time adaptability. In this paper, we propose OPAL, a novel network for LiDAR place recognition that leverages OpenStreetMap (OSM) as a lightweight and up-to-date prior. Our key innovation lies in bridging the domain disparity between sparse LiDAR scans and structured OSM data through two carefully designed components. First, a cross-modal visibility mask that identifies maximal observable regions from both modalities to guide feature learning. Second, an adaptive radial fusion module that dynamically consolidates radial features into discriminative global descriptors. Extensive experiments on the KITTI and KITTI-360 datasets demonstrate OPAL’s superiority, achieving 15.98% higher recall at @1m threshold for top-1 retrieved matches, along with 12x faster inference speed compared to the state-of-the-art approach. Code and datasets will be publicly available.

arxiv情報

著者 Shuhao Kang,Martin Y. Liao,Yan Xia,Olaf Wysocki,Boris Jutzi,Daniel Cremers
発行日 2025-04-30 10:06:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク