Enhanced Monocular Visual Odometry with AR Poses and Integrated INS-GPS for Robust Localization in Urban Environments

要約

この論文では、単眼視覚オドメトリ、拡張現実 (AR) ポーズ、および統合された INS-GPS データを組み合わせた、費用対効果の高い位置特定システムを紹介します。
AR ポーズを使用して単眼の VO スケール ファクターの問題に対処し、拡張カルマン フィルターでフィルター処理された INS および GPS データで精度を向上させます。
Google ストリート ビューから手動で注釈を付けた軌跡を使用してテストした私たちのアプローチは、1 km のトラックで 1.529 メートルの RMSE を達成しました。
今後の作業は、リアルタイムのモバイル実装と、堅牢な位置特定のための視覚慣性オドメトリのさらなる統合に焦点を当てます。
この方法では、最小限のハードウェアで車線レベルの精度が得られ、高度なナビゲーションがよりアクセスしやすくなります。

要約(オリジナル)

This paper introduces a cost effective localization system combining monocular visual odometry , augmented reality (AR) poses, and integrated INS-GPS data. We address monocular VO scale factor issues using AR poses and enhance accuracy with INS and GPS data, filtered through an Extended Kalman Filter . Our approach, tested using manually annotated trajectories from Google Street View, achieves an RMSE of 1.529 meters over a 1 km track. Future work will focus on real-time mobile implementation and further integration of visual-inertial odometry for robust localization. This method offers lane-level accuracy with minimal hardware, making advanced navigation more accessible.

arxiv情報

著者 Ankit Shaw
発行日 2024-11-12 22:53:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク