要約
この論文では、複数の RGB-D カメラを使用した視覚的同時位置特定およびマッピング (SLAM) への新しいアプローチを紹介します。
提案された手法である Multicam-SLAM は、さまざまな観点からより包括的な空間情報を取得することで、SLAM システムの堅牢性と精度を大幅に向上させます。
この方法により、重複する視野を必要とせずに、複数のカメラ間の姿勢関係を正確に決定できます。
提案された Muticam-SLAM には、独自のマルチカメラ モデル、マルチキーフレーム構造、およびいくつかの並列 SLAM スレッドが含まれています。
マルチカメラ モデルにより、複数のカメラからのデータの統合が可能になる一方、マルチキーフレームと並列 SLAM スレッドにより、効率的かつ正確な姿勢推定とマッピングが保証されます。
さまざまな環境での広範な実験により、従来の単一カメラ SLAM システムと比較して、提案された方法の優れた精度と堅牢性が実証されました。
この結果は、より複雑で困難なアプリケーションに対する提案された Multicam-SLAM の可能性を強調しています。
コードは \url{https://github.com/AlterPang/Multi_ORB_SLAM} で入手できます。
要約(オリジナル)
This paper presents a novel approach to visual simultaneous localization and mapping (SLAM) using multiple RGB-D cameras. The proposed method, Multicam-SLAM, significantly enhances the robustness and accuracy of SLAM systems by capturing more comprehensive spatial information from various perspectives. This method enables the accurate determination of pose relationships among multiple cameras without the need for overlapping fields of view. The proposed Muticam-SLAM includes a unique multi-camera model, a multi-keyframes structure, and several parallel SLAM threads. The multi-camera model allows for the integration of data from multiple cameras, while the multi-keyframes and parallel SLAM threads ensure efficient and accurate pose estimation and mapping. Extensive experiments in various environments demonstrate the superior accuracy and robustness of the proposed method compared to conventional single-camera SLAM systems. The results highlight the potential of the proposed Multicam-SLAM for more complex and challenging applications. Code is available at \url{https://github.com/AlterPang/Multi_ORB_SLAM}.
arxiv情報
著者 | Shenghao Li,Luchao Pang,Xianglong Hu |
発行日 | 2024-06-23 16:04:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google