AirSLAM: An Efficient and Illumination-Robust Point-Line Visual SLAM System

要約

この論文では、短期および長期の両方の照明課題に取り組むように設計された効率的なビジュアル SLAM システムを紹介します。
私たちのシステムは、特徴検出および照合のための深層学習技術と従来のバックエンド最適化手法を組み合わせたハイブリッド アプローチを採用しています。
具体的には、キーポイントと構造線を同時に抽出する統合畳み込みニューラル ネットワーク (CNN) を提案します。
これらの特徴は、結合された方法で関連付けられ、照合され、三角測量され、最適化されます。
さらに、構築されたマップを再利用する軽量の再ローカリゼーション パイプラインを導入します。このパイプラインでは、キーポイント、ライン、構造グラフを使用してクエリ フレームとマップを照合します。
提案されたシステムの実世界のロボットへの適用性を高めるために、C++ と NVIDIA TensorRT を使用して特徴検出およびマッチング ネットワークを展開し、高速化します。
さまざまなデータセットに対して行われた広範な実験により、照明が厳しい環境において当社のシステムが他の最先端のビジュアル SLAM システムよりも優れていることが実証されました。
効率評価の結果、当社のシステムは PC では 73 Hz、組み込みプラットフォームでは 40 Hz の速度で実行できることがわかりました。

要約(オリジナル)

In this paper, we present an efficient visual SLAM system designed to tackle both short-term and long-term illumination challenges. Our system adopts a hybrid approach that combines deep learning techniques for feature detection and matching with traditional backend optimization methods. Specifically, we propose a unified convolutional neural network (CNN) that simultaneously extracts keypoints and structural lines. These features are then associated, matched, triangulated, and optimized in a coupled manner. Additionally, we introduce a lightweight relocalization pipeline that reuses the built map, where keypoints, lines, and a structure graph are used to match the query frame with the map. To enhance the applicability of the proposed system to real-world robots, we deploy and accelerate the feature detection and matching networks using C++ and NVIDIA TensorRT. Extensive experiments conducted on various datasets demonstrate that our system outperforms other state-of-the-art visual SLAM systems in illumination-challenging environments. Efficiency evaluations show that our system can run at a rate of 73Hz on a PC and 40Hz on an embedded platform.

arxiv情報

著者 Kuan Xu,Yuefan Hao,Shenghai Yuan,Chen Wang,Lihua Xie
発行日 2024-09-18 07:23:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク