Design and Evaluation of a Generic Visual SLAM Framework for Multi-Camera Systems

要約

マルチカメラ システムは、SLAM 推定の精度と堅牢性を向上させることが示されていますが、最先端の SLAM システムは主に単眼またはステレオ設定をサポートしています。
このペーパーでは、任意の数のカメラおよび任意の配置で実行できる汎用のスパース ビジュアル SLAM フレームワークを紹介します。
私たちの SLAM システムは一般化されたカメラ モデルを使用しており、これにより任意のマルチカメラ システムを単一のイメージング デバイスとして表すことができます。
さらに、リグ内のカメラ間で相互一致する特徴を抽出することにより、重複する視野 (FoV) を利用します。
これにより、カメラの数に応じてフィーチャの数が直線的に増加することが制限され、計算負荷が抑制され、シーンの正確な表現が可能になります。
私たちは、狭い廊下、特徴のない空間、動的オブジェクトなどの困難な現実世界のシナリオを含む屋内および屋外のデータセットに対する精度、堅牢性、および実行時間の観点からメソッドを評価します。
私たちのシステムがさまざまなカメラ構成に適応でき、典型的なロボット アプリケーションのリアルタイム実行が可能であることを示します。
最後に、SLAM のカメラ構成を定義するカメラの数と FoV 間の重複という重要な設計パラメータの影響をベンチマークします。
当社のすべてのソフトウェアとデータセットは、さらなる研究のために自由に利用できます。

要約(オリジナル)

Multi-camera systems have been shown to improve the accuracy and robustness of SLAM estimates, yet state-of-the-art SLAM systems predominantly support monocular or stereo setups. This paper presents a generic sparse visual SLAM framework capable of running on any number of cameras and in any arrangement. Our SLAM system uses the generalized camera model, which allows us to represent an arbitrary multi-camera system as a single imaging device. Additionally, it takes advantage of the overlapping fields of view (FoV) by extracting cross-matched features across cameras in the rig. This limits the linear rise in the number of features with the number of cameras and keeps the computational load in check while enabling an accurate representation of the scene. We evaluate our method in terms of accuracy, robustness, and run time on indoor and outdoor datasets that include challenging real-world scenarios such as narrow corridors, featureless spaces, and dynamic objects. We show that our system can adapt to different camera configurations and allows real-time execution for typical robotic applications. Finally, we benchmark the impact of the critical design parameters – the number of cameras and the overlap between their FoV that define the camera configuration for SLAM. All our software and datasets are freely available for further research.

arxiv情報

著者 Pushyami Kaveti,Shankara Narayanan Vaidyanathan,Arvind Thamilchelvan,Hanumant Singh
発行日 2024-05-09 13:23:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク