Satellite Image Based Cross-view Localization for Autonomous Vehicle

要約

自動運転車の既存の空間ローカリゼーション技術は、ほとんどの場合、事前に作成された3D-HDマップを使用します。これは、多くの場合、調査グレードの3Dマッピング車両を使用して作成されます。
この論文は、既製の高解像度衛星画像をすぐに使用できる地図として使用することにより、満足のいく精度までクロスビュー車両の位置特定を実現し、より安価でより実用的な方法を提供できることを示しています。
ローカリゼーション。
クロスビューローカリゼーションに衛星画像を使用するというアイデアは新しいものではありませんが、以前の方法では、ほとんどの場合、タスクを画像検索として扱います。つまり、車両でキャプチャした地上ビュー画像を衛星画像と照合します。
この論文は、画像検索の一般的な知恵から逸脱した、新しいクロスビューローカリゼーション方法を提示します。
具体的には、私たちの方法は、(1)測定された3Dポイントを活用して地上ビューと俯瞰ビューの間の幾何学的ギャップを埋める幾何学的整列特徴抽出器(GaFE)、(2)トリプレット損失を採用して奨励するポーズ認識ブランチ(PAB)を開発します
ポーズ認識特徴抽出、および(3)Levenberg-Marquardt(LM)アルゴリズムを使用して初期ポーズを実際の車両ポーズに向けて繰り返し調整する再帰的ポーズリファインブランチ(RPRB)。
私たちの方法は、地上ビューとしてKITTIおよびFord Multi-AV Seasonalデータセットで、衛星ビューとしてGoogleマップで検証されています。
結果は、それぞれ1メートルと$ 2 ^ \circ$以内の空間誤差と角度誤差を伴うクロスビューローカリゼーションにおける私たちの方法の優位性を示しています。
コードは公開されます。

要約(オリジナル)

Existing spatial localization techniques for autonomous vehicles mostly use a pre-built 3D-HD map, often constructed using a survey-grade 3D mapping vehicle, which is not only expensive but also laborious. This paper shows that by using an off-the-shelf high-definition satellite image as a ready-to-use map, we are able to achieve cross-view vehicle localization up to a satisfactory accuracy, providing a cheaper and more practical way for localization. Although the idea of using satellite images for cross-view localization is not new, previous methods almost exclusively treat the task as image retrieval, namely matching a vehicle-captured ground-view image with the satellite image. This paper presents a novel cross-view localization method, which departs from the common wisdom of image retrieval. Specifically, our method develops (1) a Geometric-align Feature Extractor (GaFE) that leverages measured 3D points to bridge the geometric gap between ground view and overhead view, (2) a Pose Aware Branch (PAB) adopting a triplet loss to encourage pose-aware feature extracting, and (3) a Recursive Pose Refine Branch (RPRB) using the Levenberg-Marquardt (LM) algorithm to align the initial pose towards the true vehicle pose iteratively. Our method is validated on KITTI and Ford Multi-AV Seasonal datasets as ground view and Google Maps as the satellite view. The results demonstrate the superiority of our method in cross-view localization with spatial and angular errors within 1 meter and $2^\circ$, respectively. The code will be made publicly available.

arxiv情報

著者 Shan Wang,Yanhao Zhang,Hongdong Li
発行日 2022-07-27 13:16:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク