要約
3D ガウス スプラッティング (3DGS) は最近、RGB-D オンライン デンス マッピングにおける有望な進歩を実証しました。
それにもかかわらず、既存の方法はマップの高密度化を実行するためにピクセルごとの深度キューに過度に依存しているため、大幅な冗長性と深度ノイズに対する感度の増加につながります。
さらに、ルームスケール シーンの 3D ガウス パラメータを明示的に保存すると、ストレージに大きな課題が生じます。
このペーパーでは、スパース オクツリーの堅牢なシーン構造表現機能を活用し、構造化 3D ガウス表現と組み合わせて、効率的で堅牢なオンライン密マッピングを実現する OG マッピングを紹介します。
さらに、OG マッピングは、アンカーベースのプログレッシブ マップ改良戦略を採用して、複数の詳細レベルでシーン構造を復元します。
以前のアプローチのように固定キーフレーム ウィンドウで少数のアクティブなキーフレームを維持するのではなく、動的キーフレーム ウィンドウを使用して、OG-Mapping が誤った極小値や忘却の問題にうまく対処できるようにします。
実験結果は、OG-Mapping がコンパクトなモデルを使用した既存のガウスベースの RGB-D オンライン マッピング手法よりも堅牢で優れたリアリズム マッピング結果を提供し、追加の後処理が必要ないことを示しています。
要約(オリジナル)
3D Gaussian splatting (3DGS) has recently demonstrated promising advancements in RGB-D online dense mapping. Nevertheless, existing methods excessively rely on per-pixel depth cues to perform map densification, which leads to significant redundancy and increased sensitivity to depth noise. Additionally, explicitly storing 3D Gaussian parameters of room-scale scene poses a significant storage challenge. In this paper, we introduce OG-Mapping, which leverages the robust scene structural representation capability of sparse octrees, combined with structured 3D Gaussian representations, to achieve efficient and robust online dense mapping. Moreover, OG-Mapping employs an anchor-based progressive map refinement strategy to recover the scene structures at multiple levels of detail. Instead of maintaining a small number of active keyframes with a fixed keyframe window as previous approaches do, a dynamic keyframe window is employed to allow OG-Mapping to better tackle false local minima and forgetting issues. Experimental results demonstrate that OG-Mapping delivers more robust and superior realism mapping results than existing Gaussian-based RGB-D online mapping methods with a compact model, and no additional post-processing is required.
arxiv情報
著者 | Meng Wang,Junyi Wang,Changqun Xia,Chen Wang,Yue Qi |
発行日 | 2024-08-30 12:01:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google