Increasing SLAM Pose Accuracy by Ground-to-Satellite Image Registration

要約

自動運転のための視覚ベースの位置特定は、研究者の間で大きな関心を集めています。
事前に構築された 3D マップが利用できない場合は、通常、視覚的同時位置特定およびマッピング (SLAM) の技術が採用されます。
エラーの蓄積により、ビジュアル SLAM (vSLAM) は通常、長期的なドリフトに悩まされます。
この論文では、vSLAM と深層学習ベースの地上対衛星 (G2S) 画像登録方法を融合することで位置特定精度を向上させるフレームワークを提案します。
このフレームワークでは、有効な G2S 予測を選択するために、粗い (空間相関境界チェック) から細かい (視覚的なオドメトリ一貫性チェック) までの方法が設計されています。
次に、スケーリングされた姿勢グラフ問題を解くことによって、選択された予測が SLAM 測定と融合されます。
位置特定の精度をさらに高めるために、反復軌道融合パイプラインを提供します。
提案されたフレームワークは 2 つのよく知られた自動運転データセットに基づいて評価され、その結果は車両の位置特定に関する精度と堅牢性を示しています。

要約(オリジナル)

Vision-based localization for autonomous driving has been of great interest among researchers. When a pre-built 3D map is not available, the techniques of visual simultaneous localization and mapping (SLAM) are typically adopted. Due to error accumulation, visual SLAM (vSLAM) usually suffers from long-term drift. This paper proposes a framework to increase the localization accuracy by fusing the vSLAM with a deep-learning-based ground-to-satellite (G2S) image registration method. In this framework, a coarse (spatial correlation bound check) to fine (visual odometry consistency check) method is designed to select the valid G2S prediction. The selected prediction is then fused with the SLAM measurement by solving a scaled pose graph problem. To further increase the localization accuracy, we provide an iterative trajectory fusion pipeline. The proposed framework is evaluated on two well-known autonomous driving datasets, and the results demonstrate the accuracy and robustness in terms of vehicle localization.

arxiv情報

著者 Yanhao Zhang,Yujiao Shi,Shan Wang,Ankit Vora,Akhil Perincherry,Yongbo Chen,Hongdong Li
発行日 2024-04-14 07:17:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク