MapLocNet: Coarse-to-Fine Feature Registration for Visual Re-Localization in Navigation Maps

要約

特に GPS 信号がマルチパス エラーの影響を受ける困難な都市環境においては、確実な位置特定が自動運転の基礎となります。
従来の位置特定アプローチは、正確に注釈が付けられたランドマークで構成される高解像度 (HD) マップに依存しています。
ただし、HD マップの構築には費用がかかり、スケールアップするのが困難です。
これらの制限を考慮すると、ナビゲーション マップの活用が、ローカリゼーションのための有望な低コストの代替手段として浮上しています。
ナビゲーション マップに基づく現在のアプローチは、高精度の位置特定を実現できますが、複雑なマッチング戦略により、リアルタイムの要求を満たせない許容できない推論遅延が発生します。
これらの制限に対処するために、我々は新しいトランスフォーマーベースの神経再位置推定方法を提案します。
画像登録にヒントを得た私たちのアプローチは、ナビゲーション マップと視覚的な鳥瞰図の特徴の間で、粗いから細かいまでの神経特徴の登録を実行します。
私たちの手法は、nuScenes と Argoverse データセットの両方で現在の最先端の OrienterNet よりも大幅に優れており、シングルビューとサラウンドビューの入力設定でそれぞれ 10%/20% 近くの位置特定精度と 30/16 FPS の向上を実現しています。

私たちの研究は、自動運転のための HD マップを使用しない位置特定手法を提示し、困難な運転環境においてコスト効率が高く、信頼性が高く、スケーラブルなパフォーマンスを提供することを強調します。

要約(オリジナル)

Robust localization is the cornerstone of autonomous driving, especially in challenging urban environments where GPS signals suffer from multipath errors. Traditional localization approaches rely on high-definition (HD) maps, which consist of precisely annotated landmarks. However, building HD map is expensive and challenging to scale up. Given these limitations, leveraging navigation maps has emerged as a promising low-cost alternative for localization. Current approaches based on navigation maps can achieve highly accurate localization, but their complex matching strategies lead to unacceptable inference latency that fails to meet the real-time demands. To address these limitations, we propose a novel transformer-based neural re-localization method. Inspired by image registration, our approach performs a coarse-to-fine neural feature registration between navigation map and visual bird’s-eye view features. Our method significantly outperforms the current state-of-the-art OrienterNet on both the nuScenes and Argoverse datasets, which is nearly 10%/20% localization accuracy and 30/16 FPS improvement on single-view and surround-view input settings, separately. We highlight that our research presents an HD-map-free localization method for autonomous driving, offering cost-effective, reliable, and scalable performance in challenging driving environments.

arxiv情報

著者 Hang Wu,Zhenghao Zhang,Siyuan Lin,Xiangru Mu,Qiang Zhao,Ming Yang,Tong Qin
発行日 2024-07-11 14:51:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク