LVCP: LiDAR-Vision Tightly Coupled Collaborative Real-time Relative Positioning

要約

GPS や事前の地図を使用しない空地連携シナリオでは、ドローンと無人地上車両 (UGV) の相対的な位置決めが常に課題でした。
単眼カメラを搭載したドローンと、外部センサーとして LiDAR を搭載した UGV に対して、視覚と LiDAR 点群情報の密結合に基づく堅牢でリアルタイムの相対姿勢推定手法 (LVCP) を提案します。
マップや正確な初期ポーズなどの事前情報。
3D センサーによって生成された大規模な点群には、画像によって生成された特徴点群よりも正確な空間幾何学情報が含まれているため、カメラが大きく揺れたり、揺れたりした場合に、LiDAR 点群を利用して視覚慣性オドメトリ (VIO) のドリフトを補正します。
IMU の信号対雑音比は低いです。
これを達成するために、我々は、LiDAR ビジョンの協調位置特定のための新しい粗いから細かいまでのフレームワークを提案します。
このフレームワークでは、空間幾何学的情報に基づいて点と面の関連付けを構築し、バックエンドとして点支援バンドル調整 (BA) 問題を革新的に構築して、カメラと LiDAR の相対姿勢を同時に推定し、VIO ドリフトを修正します。
このプロセスでは、現在のカメラと LiDAR の姿勢の大まかな推定を完了するために、粒子群最適化 (PSO) ベースのサンプリング アルゴリズムを提案します。
このプロセスでは、サンプリングに使用されるカメラの初期ポーズが VIO 伝播に基づいて取得され、有効なフィーチャープレーン関連付け番号 (VFPN) を使用して PSO サンプリング プロセスがトリガーされます。
さらに、Structure from Motion (SFM) とマルチレベル サンプリングを組み合わせてアルゴリズムを初期化し、初期値の不足という課題に対処する方法を提案します。

要約(オリジナル)

In air-ground collaboration scenarios without GPS and prior maps, the relative positioning of drones and unmanned ground vehicles (UGVs) has always been a challenge. For a drone equipped with monocular camera and an UGV equipped with LiDAR as an external sensor, we propose a robust and real-time relative pose estimation method (LVCP) based on the tight coupling of vision and LiDAR point cloud information, which does not require prior information such as maps or precise initial poses. Given that large-scale point clouds generated by 3D sensors has more accurate spatial geometric information than the feature point cloud generated by image, we utilize LiDAR point clouds to correct the drift in visual-inertial odometry (VIO) when the camera undergoes significant shaking or the IMU has a low signal-to-noise ratio. To achieve this, we propose a novel coarse-to-fine framework for LiDAR-vision collaborative localization. In this framework, we construct point-plane association based on spatial geometric information, and innovatively construct a point-aided Bundle Adjustment (BA) problem as the backend to simultaneously estimate the relative pose of the camera and LiDAR and correct the VIO drift. In this process, we propose a particle swarm optimization (PSO) based sampling algorithm to complete the coarse estimation of the current camera-LiDAR pose. In this process, the initial pose of the camera used for sampling is obtained based on VIO propagation, and the valid feature-plane association number (VFPN) is used to trigger PSO-sampling process. Additionally, we propose a method that combines Structure from Motion (SFM) and multi-level sampling to initialize the algorithm, addressing the challenge of lacking initial values.

arxiv情報

著者 Zhuozhu Jian,Qixuan Li,Shengtao Zheng,Xueqian Wang,Xinlei Chen
発行日 2024-07-15 15:01:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク