Satellite Image Based Cross-view Localization for Autonomous Vehicle

要約

タイトル:自動運転車のための衛星画像に基づく交差視点ローカリゼーション
要約:
– 自動運転車のための空間的なローカリゼーション技術は、事前に構築された3D-HDマップを使用することが一般的である。しかしこれは、測量グレードの3Dマッピング車両を使用するためにコストと手間がかかってしまう。
– 本論文は、市販の高精細衛星画像をマップとして使用することで、より安価で実用的な方法でローカリゼーションを実現することができることを示している。
– 衛星画像を使用した交差視点ローカリゼーションは既に確立された概念であるが、従来の方法は主に画像検索に重点を置いている。本論文では、従来の画像検索手法とは異なる交差視点ローカリゼーションの新しいアプローチを紹介している。
– 具体的には、測定された3D点を利用して地上視点と上空視点の幾何学的ギャップを埋めるGeometric-align Feature Extractor(GaFE)やポーズに応じた特徴抽出を促進するTriplet lossを採用したPose Aware Branch(PAB)、そして初期姿勢を真の車両位置に向けて反復的に合わせるLevenberg-Marquardt(LM)アルゴリズムを使用するRecursive Pose Refine Branch(RPRB)という手法を開発した。
– 本手法は、地上視点としてKITTIとFord Multi-AV Seasonalデータセット、衛星視点としてGoogle Mapsを用いて検証された。結果は、中央の空間エラーと角度エラーがそれぞれ1メートルと1度以内であることが示され、本手法の優位性が示された。

要約(オリジナル)

Existing spatial localization techniques for autonomous vehicles mostly use a pre-built 3D-HD map, often constructed using a survey-grade 3D mapping vehicle, which is not only expensive but also laborious. This paper shows that by using an off-the-shelf high-definition satellite image as a ready-to-use map, we are able to achieve cross-view vehicle localization up to a satisfactory accuracy, providing a cheaper and more practical way for localization. While the utilization of satellite imagery for cross-view localization is an established concept, the conventional methodology focuses primarily on image retrieval. This paper introduces a novel approach to cross-view localization that departs from the conventional image retrieval method. Specifically, our method develops (1) a Geometric-align Feature Extractor (GaFE) that leverages measured 3D points to bridge the geometric gap between ground and overhead views, (2) a Pose Aware Branch (PAB) adopting a triplet loss to encourage pose-aware feature extraction, and (3) a Recursive Pose Refine Branch (RPRB) using the Levenberg-Marquardt (LM) algorithm to align the initial pose towards the true vehicle pose iteratively. Our method is validated on KITTI and Ford Multi-AV Seasonal datasets as ground view and Google Maps as the satellite view. The results demonstrate the superiority of our method in cross-view localization with median spatial and angular errors within $1$ meter and $1^\circ$, respectively.

arxiv情報

著者 Shan Wang,Yanhao Zhang,Ankit Vora,Akhil Perincherry,Hongdong Li
発行日 2023-04-20 15:03:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク