MoD-SLAM: Monocular Dense Mapping for Unbounded 3D Scene Reconstruction

要約

ニューラル暗黙的表現は、最近、Simultaneous Localization And Mapping (SLAM) を含む多くの分野で実証されています。
現在のニューラル SLAM は、境界のあるシーンを再構築する際に理想的な結果を達成できますが、これは RGB-D 画像の入力に依存しています。
RGB 画像のみに基づくニューラルベースの SLAM では、シーンのスケールを正確に再構成することができず、追跡中に蓄積された誤差によるスケール ドリフトも発生します。
これらの制限を克服するために、境界のないシーンでグローバルなポーズの最適化とリアルタイムの 3D 再構築を可能にする単眼高密度マッピング手法である MoD-SLAM を提案します。
単眼深度推定によるシーン再構築の最適化と、カメラポーズの更新のためのループクロージャ検出の使用により、大規模なシーンでの詳細かつ正確な再構築が可能になります。
以前の研究と比較して、私たちのアプローチはより堅牢で、スケーラブルで、多用途です。
私たちの実験では、MoD-SLAM が、特に大規模なボーダーレス シーンにおいて、従来のニューラル SLAM 手法よりも優れたマッピング パフォーマンスを備えていることを実証しました。

要約(オリジナル)

Neural implicit representations have recently been demonstrated in many fields including Simultaneous Localization And Mapping (SLAM). Current neural SLAM can achieve ideal results in reconstructing bounded scenes, but this relies on the input of RGB-D images. Neural-based SLAM based only on RGB images is unable to reconstruct the scale of the scene accurately, and it also suffers from scale drift due to errors accumulated during tracking. To overcome these limitations, we present MoD-SLAM, a monocular dense mapping method that allows global pose optimization and 3D reconstruction in real-time in unbounded scenes. Optimizing scene reconstruction by monocular depth estimation and using loop closure detection to update camera pose enable detailed and precise reconstruction on large scenes. Compared to previous work, our approach is more robust, scalable and versatile. Our experiments demonstrate that MoD-SLAM has more excellent mapping performance than prior neural SLAM methods, especially in large borderless scenes.

arxiv情報

著者 Heng Zhou,Zhetao Guo,Shuhong Liu,Lechen Zhang,Qihao Wang,Yuxiang Ren,Mingrui Li
発行日 2024-02-21 17:00:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク