CP+: Camera Poses Augmentation with Large-scale LiDAR Maps

要約

大規模な色付きの点群には、ナビゲーションやシーンの表示において多くの利点があります。
現在、再構成タスクで広く使用されているカメラと LiDAR に依存して、このような色付きの点群を取得することができます。
ただし、これら 2 種類のセンサーからの情報は、多くの既存のフレームワークではうまく融合されていないため、カラー化の結果が不十分になり、カメラの姿勢が不正確になり、ポイントのカラー化の結果が損なわれます。
Camera Pose Augmentation (CP+) と呼ばれる新しいフレームワークを提案して、カメラのポーズを改善し、それらを LiDAR ベースのポイント クラウドと直接位置合わせします。
初期の粗いカメラ ポーズは、LiDAR-Inertial または LiDAR-Inertial-Visual Odometry によって、おおよその外部パラメーターと時間同期を使用して指定されます。
画像の位置合わせを改善するための重要なステップは、各カメラ ビューの関心領域に対応するポイント クラウドを選択し、このポイント クラウドから信頼性の高いエッジ機能を抽出し、反復最小化に使用される 2D-3D ライン対応を導出することで構成されます。
再投影エラー。

要約(オリジナル)

Large-scale colored point clouds have many advantages in navigation or scene display. Relying on cameras and LiDARs, which are now widely used in reconstruction tasks, it is possible to obtain such colored point clouds. However, the information from these two kinds of sensors is not well fused in many existing frameworks, resulting in poor colorization results, thus resulting in inaccurate camera poses and damaged point colorization results. We propose a novel framework called Camera Pose Augmentation (CP+) to improve the camera poses and align them directly with the LiDAR-based point cloud. Initial coarse camera poses are given by LiDAR-Inertial or LiDAR-Inertial-Visual Odometry with approximate extrinsic parameters and time synchronization. The key steps to improve the alignment of the images consist of selecting a point cloud corresponding to a region of interest in each camera view, extracting reliable edge features from this point cloud, and deriving 2D-3D line correspondences which are used towards iterative minimization of the re-projection error.

arxiv情報

著者 Jiadi Cui,Sören Schwertfeger
発行日 2023-02-23 17:49:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク