要約
既存のニューラル・フィールドに基づくSLAM手法は、通常、シーン表現として単一のモノリシック・フィールドを採用している。このため、ループ閉鎖制約を効率的に組み込むことができず、スケーラビリティが制限される。これらの欠点に対処するために、我々は、スパース視覚SLAMシステムのポーズグラフに軽量のニューラル場を固定するニューラルマッピングフレームワークを提案する。我々のアプローチは、必要な再統合を制限しつつ、大規模なループ閉鎖を統合する能力を示す。さらに、最適化中に複数のループクロージャーを考慮した建物規模のマッピングの成功を実証することで、本アプローチのスケーラビリティを検証し、本手法が大規模シーンにおいて、品質と実行時間の点で既存の最先端アプローチを上回ることを示す。我々のコードはhttps://kth-rpl.github.io/neural_graph_mapping/。
要約(オリジナル)
Existing neural field-based SLAM methods typically employ a single monolithic field as their scene representation. This prevents efficient incorporation of loop closure constraints and limits scalability. To address these shortcomings, we propose a neural mapping framework which anchors lightweight neural fields to the pose graph of a sparse visual SLAM system. Our approach shows the ability to integrate large-scale loop closures, while limiting necessary reintegration. Furthermore, we verify the scalability of our approach by demonstrating successful building-scale mapping taking multiple loop closures into account during the optimization, and show that our method outperforms existing state-of-the-art approaches on large scenes in terms of quality and runtime. Our code is available at https://kth-rpl.github.io/neural_graph_mapping/.
arxiv情報
著者 | Leonard Bruns,Jun Zhang,Patric Jensfelt |
発行日 | 2024-05-06 16:50:42+00:00 |
arxivサイト | arxiv_id(pdf) |