要約
この論文では、短期的および長期的な照明の課題に取り組むように設計された効率的な視覚的なスラムシステムを紹介します。
当社のシステムは、機能の検出とマッチングのための深い学習手法を、従来のバックエンド最適化方法と組み合わせたハイブリッドアプローチを採用しています。
具体的には、キーポイントと構造ラインを同時に抽出する統一された畳み込みニューラルネットワーク(CNN)を提案します。
これらの機能は、結合され、一致し、三角測量され、結合された方法で最適化されます。
さらに、ビルドマップを再利用する軽量の再局在化パイプラインを導入します。ここでは、キーポイント、ライン、および構造グラフを使用して、クエリフレームをマップと一致させます。
提案されたシステムの実際のロボットへの適用性を高めるために、C ++とNvidia Tensortを使用して、機能の検出と一致ネットワークを展開および加速します。
さまざまなデータセットで実施された広範な実験は、システムが照明に挑戦する環境で他の最先端の視覚スラムシステムよりも優れていることを示しています。
効率評価は、当社のシステムがPCで73Hzの速度で、埋め込みプラットフォームで40Hzのレートで実行できることを示しています。
私たちの実装はオープンソースです:https://github.com/sair-lab/airslam。
要約(オリジナル)
In this paper, we present an efficient visual SLAM system designed to tackle both short-term and long-term illumination challenges. Our system adopts a hybrid approach that combines deep learning techniques for feature detection and matching with traditional backend optimization methods. Specifically, we propose a unified convolutional neural network (CNN) that simultaneously extracts keypoints and structural lines. These features are then associated, matched, triangulated, and optimized in a coupled manner. Additionally, we introduce a lightweight relocalization pipeline that reuses the built map, where keypoints, lines, and a structure graph are used to match the query frame with the map. To enhance the applicability of the proposed system to real-world robots, we deploy and accelerate the feature detection and matching networks using C++ and NVIDIA TensorRT. Extensive experiments conducted on various datasets demonstrate that our system outperforms other state-of-the-art visual SLAM systems in illumination-challenging environments. Efficiency evaluations show that our system can run at a rate of 73Hz on a PC and 40Hz on an embedded platform. Our implementation is open-sourced: https://github.com/sair-lab/AirSLAM.
arxiv情報
著者 | Kuan Xu,Yuefan Hao,Shenghai Yuan,Chen Wang,Lihua Xie |
発行日 | 2025-02-27 12:19:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google