A Visual-inertial Localization Algorithm using Opportunistic Visual Beacons and Dead-Reckoning for GNSS-Denied Large-scale Applications

要約

スマートシティの発展に伴い、大規模な都市環境における継続的な歩行者ナビゲーションの需要が大幅に増加しています。
全地球航法衛星システム (GNSS) は低コストで信頼性の高い測位サービスを提供しますが、都市の複雑な峡谷環境では妨げられることがよくあります。
したがって、都市部での測位のための日和見的な信号を探索することが重要な解決策となっています。
拡張現実 (AR) により、歩行者はリアルタイムの視覚情報を取得できます。
したがって、我々は低コストの視覚慣性測位ソリューションを提案します。
この方法は、軽量マルチスケール グループ コンボリューション (MSGC) ベースの視覚的場所認識 (VPR) ニューラル ネットワーク、歩行者推測航法 (PDR) アルゴリズム、および総誤差抑制を備えたカルマン フィルターに基づく視覚/慣性融合アプローチで構成されます。
VPR はカルマン フィルターに対する条件付き観測として機能し、PDR 法によって蓄積された誤差を効果的に補正します。
これにより、アルゴリズム全体が GNSS が拒否されたエリアでの長期測位の信頼性を確保できるようになります。
広範な実験結果は、私たちの方法が大規模な移動中に安定した位置を維持することを実証しています。
軽量の MobileNetV3 ベースの VPR 手法と比較して、私たちが提案する VPR ソリューションは、パラメーター数を 63.37\% 削減しながら、2 つの公開データセットで Recall@1 を少なくとも 3\% 改善します。
また、VGG16 ベースの方式と同等のパフォーマンスを実現します。
VPR-PDR アルゴリズムにより、元の PDR と比較して位置特定精度が 40\% 以上向上します。

要約(オリジナル)

With the development of smart cities, the demand for continuous pedestrian navigation in large-scale urban environments has significantly increased. While global navigation satellite systems (GNSS) provide low-cost and reliable positioning services, they are often hindered in complex urban canyon environments. Thus, exploring opportunistic signals for positioning in urban areas has become a key solution. Augmented reality (AR) allows pedestrians to acquire real-time visual information. Accordingly, we propose a low-cost visual-inertial positioning solution. This method comprises a lightweight multi-scale group convolution (MSGC)-based visual place recognition (VPR) neural network, a pedestrian dead reckoning (PDR) algorithm, and a visual/inertial fusion approach based on a Kalman filter with gross error suppression. The VPR serves as a conditional observation to the Kalman filter, effectively correcting the errors accumulated through the PDR method. This enables the entire algorithm to ensure the reliability of long-term positioning in GNSS-denied areas. Extensive experimental results demonstrate that our method maintains stable positioning during large-scale movements. Compared to the lightweight MobileNetV3-based VPR method, our proposed VPR solution improves Recall@1 by at least 3\% on two public datasets while reducing the number of parameters by 63.37\%. It also achieves performance that is comparable to the VGG16-based method. The VPR-PDR algorithm improves localization accuracy by more than 40\% compared to the original PDR.

arxiv情報

著者 Liqiang Zhang Ye Tian Dongyan Wei
発行日 2024-11-29 17:04:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.SP パーマリンク