要約
最近、ニューラル暗黙的表現に基づく高密度同時位置特定およびマッピング (SLAM) は、穴埋めと高忠実度マッピングにおいて目覚ましい進歩を示しました。
それにもかかわらず、既存の方法は、既知のシーン境界に大きく依存するか、潜在的なループ閉鎖領域のドリフトにより一貫性のない再構成が発生するか、あるいはその両方が発生しており、これは柔軟性のない表現とローカル制約の欠如に起因すると考えられます。
この論文では、強化されたローカル制約と計算可能な事前計算機能を備えたニューラル暗黙的 SLAM システムである LCP-Fusion を紹介します。これは、特徴グリッドと SDF 事前確率を含むスパース ボクセル オクツリー構造をハイブリッド シーン表現として採用し、マッピングと追跡中のスケーラビリティとロバスト性を可能にします。
。
局所的な制約を強化するために、ループ閉鎖に対処するための視覚的なオーバーラップと、相対姿勢を制約するための実用的なワーピング損失に基づいた新しいスライディング ウィンドウ選択戦略を提案します。
さらに、SDF 事前分布を暗黙的な特徴の粗い初期化として推定します。これにより、特に軽量だが効率的な適応型早期終了が採用される場合、追加の明示的な制約と堅牢性がもたらされます。
実験では、特に困難な現実のシーン (ScanNet) や未知のシーン境界を持つ自己撮影シーンにおいて、私たちの方法が既存の RGB-D 暗黙的 SLAM よりも優れた位置特定精度と再構成の一貫性を達成できることを実証しています。
コードは https://github.com/laliwang/LCP-Fusion で入手できます。
要約(オリジナル)
Recently the dense Simultaneous Localization and Mapping (SLAM) based on neural implicit representation has shown impressive progress in hole filling and high-fidelity mapping. Nevertheless, existing methods either heavily rely on known scene bounds or suffer inconsistent reconstruction due to drift in potential loop-closure regions, or both, which can be attributed to the inflexible representation and lack of local constraints. In this paper, we present LCP-Fusion, a neural implicit SLAM system with enhanced local constraints and computable prior, which takes the sparse voxel octree structure containing feature grids and SDF priors as hybrid scene representation, enabling the scalability and robustness during mapping and tracking. To enhance the local constraints, we propose a novel sliding window selection strategy based on visual overlap to address the loop-closure, and a practical warping loss to constrain relative poses. Moreover, we estimate SDF priors as coarse initialization for implicit features, which brings additional explicit constraints and robustness, especially when a light but efficient adaptive early ending is adopted. Experiments demonstrate that our method achieve better localization accuracy and reconstruction consistency than existing RGB-D implicit SLAM, especially in challenging real scenes (ScanNet) as well as self-captured scenes with unknown scene bounds. The code is available at https://github.com/laliwang/LCP-Fusion.
arxiv情報
著者 | Jiahui Wang,Yinan Deng,Yi Yang,Yufeng Yue |
発行日 | 2024-11-06 02:05:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google