要約
無人車両は通常、全地球測位システム (GPS) と光検出測距 (LiDAR) センサーを利用して、ナビゲーション目的で高精度の位置特定結果を実現します。
しかし、この組み合わせは、関連するコストやインフラストラクチャの需要と相まって、大衆市場アプリケーションでの広範な採用に課題をもたらします。
この論文では、単眼カメラのみを使用して、LiDAR 強化視覚事前マップ上の深層学習視覚特徴を追跡することで、同等のオンボード位置特定パフォーマンスを達成することを目的としています。
実験では、提案されたアルゴリズムがセンチメートルレベルの全地球測位結果を大規模に提供できることが示されており、これは簡単に統合でき、現実世界のアプリケーションでの低コストのロボットシステムの展開に有利です。
要約(オリジナル)
Unmanned vehicles usually rely on Global Positioning System (GPS) and Light Detection and Ranging (LiDAR) sensors to achieve high-precision localization results for navigation purpose. However, this combination with their associated costs and infrastructure demands, poses challenges for widespread adoption in mass-market applications. In this paper, we aim to use only a monocular camera to achieve comparable onboard localization performance by tracking deep-learning visual features on a LiDAR-enhanced visual prior map. Experiments show that the proposed algorithm can provide centimeter-level global positioning results with scale, which is effortlessly integrated and favorable for low-cost robot system deployment in real-world applications.
arxiv情報
著者 | Jinhao He,Huaiyang Huang,Shuyang Zhang,Jianhao Jiao,Chengju Liu,Ming Liu |
発行日 | 2024-07-12 08:39:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google