A real-time, robust and versatile visual-SLAM framework based on deep learning networks

要約

このペーパーでは、深層学習技術が困難な環境においてビジュアルベースの SLAM パフォーマンスをどのように向上させることができるかを検討します。
深い特徴抽出と深いマッチング手法を組み合わせることで、低照度条件、動的照明、弱いテクスチャ領域、深刻なジッターなどの困難なシナリオでの適応性を高めるように設計された多用途のハイブリッド ビジュアル SLAM システムを導入します。
当社のシステムは、単眼、ステレオ、単眼慣性、ステレオ慣性構成を含む複数のモードをサポートしています。
また、他の研究を啓発するために、ビジュアル SLAM と深層学習手法を組み合わせる方法の分析も行っています。
公開データセットと自己サンプリングされたデータの両方に関する広範な実験を通じて、従来のアプローチに対する SL-SLAM システムの優位性を実証しました。
実験結果は、SL-SLAM が位置特定精度と追跡堅牢性の点で最先端の SLAM アルゴリズムよりも優れていることを示しています。
コミュニティの利益のために、https://github.com/zzzzxxxx111/SLslam でソース コードを公開します。

要約(オリジナル)

This paper explores how deep learning techniques can improve visual-based SLAM performance in challenging environments. By combining deep feature extraction and deep matching methods, we introduce a versatile hybrid visual SLAM system designed to enhance adaptability in challenging scenarios, such as low-light conditions, dynamic lighting, weak-texture areas, and severe jitter. Our system supports multiple modes, including monocular, stereo, monocular-inertial, and stereo-inertial configurations. We also perform analysis how to combine visual SLAM with deep learning methods to enlighten other researches. Through extensive experiments on both public datasets and self-sampled data, we demonstrate the superiority of the SL-SLAM system over traditional approaches. The experimental results show that SL-SLAM outperforms state-of-the-art SLAM algorithms in terms of localization accuracy and tracking robustness. For the benefit of community, we make public the source code at https://github.com/zzzzxxxx111/SLslam.

arxiv情報

著者 Zhang Xiao,Shuaixin Li
発行日 2024-06-04 07:30:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク