Tightly-Coupled LiDAR-Visual SLAM Based on Geometric Features for Mobile Agents

要約

モバイル ロボットは、SLAM (Simultaneous Localization and Mapping) を利用して、複雑で未知の環境で自律ナビゲーションとタスクの実行を提供します。
しかし、劣悪な照明条件やモーションブラーなどの動的で困難な状況のため、移動ロボット専用のアルゴリズムを開発するのは困難です。
この問題に取り組むために、我々は、2 つのサブシステム (LiDAR と単眼視覚 SLAM) と融合フレームワークを含む、幾何学的特徴に基づいて密結合した LiDAR と視覚 SLAM を提案します。
融合フレームワークは、マルチモーダル幾何学的特徴の深さとセマンティクスを関連付けて、視線ランドマークを補完し、バンドル調整 (BA) で方向の最適化を追加します。
これにより、視覚的なオドメトリがさらに制限されます。
一方、視覚サブシステムによって検出された線分全体は、幾何学的特徴のローカル計算のみを実行できる LiDAR サブシステムの制限を克服します。
線形特徴点の方向を調整し、外れ値を除去して、より高精度なオドメトリ システムを実現します。
最後に、サブシステムの動作を検出するモジュールを採用し、視覚的なサブシステムの追跡が失敗している間に、LiDAR サブシステムの出力を補完的な軌道としてシステムに提供します。
屋内および屋外のさまざまなシナリオにわたって地上ロボットから収集された公開データセット M2DGR の評価結果は、当社のシステムが現在の最先端のマルチモーダル手法と比較して、より正確で堅牢な姿勢推定を達成していることを示しています。

要約(オリジナル)

The mobile robot relies on SLAM (Simultaneous Localization and Mapping) to provide autonomous navigation and task execution in complex and unknown environments. However, it is hard to develop a dedicated algorithm for mobile robots due to dynamic and challenging situations, such as poor lighting conditions and motion blur. To tackle this issue, we propose a tightly-coupled LiDAR-visual SLAM based on geometric features, which includes two sub-systems (LiDAR and monocular visual SLAM) and a fusion framework. The fusion framework associates the depth and semantics of the multi-modal geometric features to complement the visual line landmarks and to add direction optimization in Bundle Adjustment (BA). This further constrains visual odometry. On the other hand, the entire line segment detected by the visual subsystem overcomes the limitation of the LiDAR subsystem, which can only perform the local calculation for geometric features. It adjusts the direction of linear feature points and filters out outliers, leading to a higher accurate odometry system. Finally, we employ a module to detect the subsystem’s operation, providing the LiDAR subsystem’s output as a complementary trajectory to our system while visual subsystem tracking fails. The evaluation results on the public dataset M2DGR, gathered from ground robots across various indoor and outdoor scenarios, show that our system achieves more accurate and robust pose estimation compared to current state-of-the-art multi-modal methods.

arxiv情報

著者 Ke Cao,Ruiping Liu,Ze Wang,Kunyu Peng,Jiaming Zhang,Junwei Zheng,Zhifeng Teng,Kailun Yang,Rainer Stiefelhagen
発行日 2023-07-15 10:06:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO, eess.IV パーマリンク