要約
移動するエージェントが環境内で自分自身をローカライズする機能は、自動運転などの新しいアプリケーションの基本的な要求です。複数のセンサーに基づく多くの既存の方法は、依然としてドリフトに悩まされています。
方向射影誤差と呼ばれる、回転のみに制約されるエネルギー項を確立できる、画像からの事前マップと消失点を融合するスキームを提案します。
次に、これらの方向事前確率を、カメラと LiDAR の測定値をバックエンドで密結合の方法で統合するビジュアル LiDAR SLAM システムに組み込みます。
具体的には、視覚的な再投影エラーを生成し、スキャン制約の暗黙の移動最小二乗 (IMLS) サーフェスをポイントし、それらをグローバル最適化での方向投影エラーと一緒に解決します。
KITTI、KITTI-360、Oxford Radar Robotcar での実験では、以前のマップよりもローカリゼーション エラーまたは絶対姿勢エラー (APE) が低いことが示され、この方法が有効であることが検証されました。
要約(オリジナル)
The ability for a moving agent to localize itself in environment is the basic demand for emerging applications, such as autonomous driving, etc. Many existing methods based on multiple sensors still suffer from drift. We propose a scheme that fuses map prior and vanishing points from images, which can establish an energy term that is only constrained on rotation, called the direction projection error. Then we embed these direction priors into a visual-LiDAR SLAM system that integrates camera and LiDAR measurements in a tightly-coupled way at backend. Specifically, our method generates visual reprojection error and point to Implicit Moving Least Square(IMLS) surface of scan constraints, and solves them jointly along with direction projection error at global optimization. Experiments on KITTI, KITTI-360 and Oxford Radar Robotcar show that we achieve lower localization error or Absolute Pose Error (APE) than prior map, which validates our method is effective.
arxiv情報
著者 | Longrui Dong,Gang Zeng |
発行日 | 2022-08-26 15:46:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google