LHMap-loc: Cross-Modal Monocular Localization Using LiDAR Point Cloud Heat Map

要約

事前に構築された LiDAR 点群マップで単眼カメラを使用した位置特定は、自動運転やモバイル ロボット工学の分野でますます注目を集めています。
ただし、クロスモーダル ローカライゼーションを正確かつ効率的に実装するには、依然として多くの課題があります (例: マップ ストレージの難しさ、大規模なシーンでのローカライゼーションの堅牢性の低さなど)。
これらの問題を解決するために、LHMap-loc と呼ばれる新しいパイプラインが提案されています。これは、LiDAR マップで正確かつ効率的な単眼位置特定を実現します。
まず、オフラインのヒート点群を生成することにより、元の LiDAR 点群マップ上で特徴エンコードが実行され、元の LiDAR マップのサイズが圧縮されます。
次に、エンドツーエンドのオンライン姿勢回帰ネットワークがオプティカル フロー推定と空間的注意に基づいて設計され、事前に構築されたマップでリアルタイムの単眼視覚位置特定を実現します。
さらに、提案された方法の有効性を証明するために一連の実験が行われました。
コードは https://github.com/IRMVLab/LHMap-loc から入手できます。

要約(オリジナル)

Localization using a monocular camera in the pre-built LiDAR point cloud map has drawn increasing attention in the field of autonomous driving and mobile robotics. However, there are still many challenges (e.g. difficulties of map storage, poor localization robustness in large scenes) in accurately and efficiently implementing cross-modal localization. To solve these problems, a novel pipeline termed LHMap-loc is proposed, which achieves accurate and efficient monocular localization in LiDAR maps. Firstly, feature encoding is carried out on the original LiDAR point cloud map by generating offline heat point clouds, by which the size of the original LiDAR map is compressed. Then, an end-to-end online pose regression network is designed based on optical flow estimation and spatial attention to achieve real-time monocular visual localization in a pre-built map. In addition, a series of experiments have been conducted to prove the effectiveness of the proposed method. Our code is available at: https://github.com/IRMVLab/LHMap-loc.

arxiv情報

著者 Xinrui Wu,Jianbo Xu,Puyuan Hu,Guangming Wang,Hesheng Wang
発行日 2024-03-11 02:28:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク