要約
この手紙では、正確なLidar臭気とマッピング(ローム)のための色アシストされた堅牢なフレームワークを提案します。
Lidarとカメラの両方からデータを同時に受信すると、フレームワークはカメラ画像からの色情報を利用してLidarポイント雲を色付けし、反復ポーズ最適化を実行します。
Lidarスキャンごとに、対応する画像を使用してエッジと平面の特徴が抽出され、色付けされ、グローバルマップに一致します。
具体的には、知覚的に均一な色の違いの重み付け戦略を採用して、色の対応外れ値と、ポーズ最適化プロセス中の位置対応外れ値の影響を緩和するために、ウェルシュの関数に基づいた堅牢なエラーメトリックを除外します。
その結果、システムは正確なローカリゼーションを実現し、環境の密度が高く、正確で、色付きの3次元(3D)マップを再構築します。
複雑な森林やキャンパスを含む挑戦的なシナリオを使用した徹底的な実験は、現在の最先端の方法と比較して、この方法がより高い堅牢性と精度を提供することを示しています。
要約(オリジナル)
In this letter, we propose a color-assisted robust framework for accurate LiDAR odometry and mapping (LOAM). Simultaneously receiving data from both the LiDAR and the camera, the framework utilizes the color information from the camera images to colorize the LiDAR point clouds and then performs iterative pose optimization. For each LiDAR scan, the edge and planar features are extracted and colored using the corresponding image and then matched to a global map. Specifically, we adopt a perceptually uniform color difference weighting strategy to exclude color correspondence outliers and a robust error metric based on the Welsch’s function to mitigate the impact of positional correspondence outliers during the pose optimization process. As a result, the system achieves accurate localization and reconstructs dense, accurate, colored and three-dimensional (3D) maps of the environment. Thorough experiments with challenging scenarios, including complex forests and a campus, show that our method provides higher robustness and accuracy compared with current state-of-the-art methods.
arxiv情報
著者 | Yufei Lu,Yuetao Li,Zhizhou Jia,Qun Hao,Shaohui Zhang |
発行日 | 2025-02-24 15:28:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google