SL-SLAM: A robust visual-inertial SLAM based deep feature extraction and matching

要約

本稿では、ディープラーニング技術により、困難な環境における視覚ベースのSLAM性能をどのように向上させることができるかを探求する。深層特徴抽出と深層マッチング手法を組み合わせることで、低照度条件、動的照明、弱いテクスチャ領域、激しいジッタなどの困難なシナリオにおける適応性を高めるように設計された、汎用性の高いハイブリッド視覚SLAMシステムを紹介する。本システムは、単眼、ステレオ、単眼慣性、ステレオ慣性などの複数のモードをサポートする。また、他の研究を啓発するために、視覚SLAMとディープラーニング手法をどのように組み合わせるかの分析も行う。公開データセットと自己サンプリングデータの両方に対する広範な実験を通じて、従来のアプローチに対するSL-SLAMシステムの優位性を実証する。実験結果は、SL-SLAMが定位精度と追跡ロバスト性の点で最先端のSLAMアルゴリズムを上回ることを示している。コミュニティのために、ソースコードを https://github.com/zzzzxxxx111/SLslam で公開する。

要約(オリジナル)

This paper explores how deep learning techniques can improve visual-based SLAM performance in challenging environments. By combining deep feature extraction and deep matching methods, we introduce a versatile hybrid visual SLAM system designed to enhance adaptability in challenging scenarios, such as low-light conditions, dynamic lighting, weak-texture areas, and severe jitter. Our system supports multiple modes, including monocular, stereo, monocular-inertial, and stereo-inertial configurations. We also perform analysis how to combine visual SLAM with deep learning methods to enlighten other researches. Through extensive experiments on both public datasets and self-sampled data, we demonstrate the superiority of the SL-SLAM system over traditional approaches. The experimental results show that SL-SLAM outperforms state-of-the-art SLAM algorithms in terms of localization accuracy and tracking robustness. For the benefit of community, we make public the source code at https://github.com/zzzzxxxx111/SLslam.

arxiv情報

著者 Zhang Xiao,Shuaixin Li
発行日 2024-05-06 12:24:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク