要約
移動するエージェントが環境中で自己を特定する能力は、自律走行などの新しいアプリケーションの基本的な要求である。複数のセンサを用いた既存の手法の多くは、依然としてドリフトに悩まされている。我々は、地図事前分布と画像からの消失点を融合し、方向投影誤差と呼ばれる回転のみに拘束されるエネルギー項を確立することができる方式を提案する。そして、これらの方向事前分布を、カメラとLiDARの計測をバックエンドで密結合に統合するビジュアルLiDAR SLAMシステムに組み込む。具体的には、視覚的再投影誤差とスキャン制約の暗黙的移動最小二乗法(IMLS)面への点を生成し、方向投影誤差と共に大域的最適化で解く。KITTI、KITTI-360、Oxford Radar Robotcarを用いた実験では、従来の地図よりも低い位置決め誤差や絶対姿勢誤差(APE)を達成し、本手法が有効であることを確認した。
要約(オリジナル)
The ability for a moving agent to localize itself in environment is the basic demand for emerging applications, such as autonomous driving, etc. Many existing methods based on multiple sensors still suffer from drift. We propose a scheme that fuses map prior and vanishing points from images, which can establish an energy term that is only constrained on rotation, called the direction projection error. Then we embed these direction priors into a visual-LiDAR SLAM system that integrates camera and LiDAR measurements in a tightly-coupled way at backend. Specifically, our method generates visual reprojection error and point to Implicit Moving Least Square(IMLS) surface of scan constraints, and solves them jointly along with direction projection error at global optimization. Experiments on KITTI, KITTI-360 and Oxford Radar Robotcar show that we achieve lower localization error or Absolute Pose Error (APE) than prior map, which validates our method is effective.
arxiv情報
| 著者 | Longrui Dong,Gang Zeng |
| 発行日 | 2022-09-08 05:12:15+00:00 |
| arxivサイト | arxiv_id(pdf) |