要約
この論文では、オープン シーンで効率的かつ効果的な 3D サーフェスを再構成するための新しい方法を紹介します。
既存の Neural Radiance Fields (NeRF) ベースの作品は、暗黙的表現が採用されているため、通常、多大なトレーニングとレンダリング時間が必要です。
対照的に、3D ガウス スプラッティング (3DGS) は明示的で離散的な表現を使用するため、再構成されたサーフェスは膨大な数のガウス プリミティブによって構築され、過剰なメモリ消費とまばらなガウス領域の粗い表面の詳細につながります。
これらの問題に対処するために、カーネル回帰を通じて離散 3DGS に基づく連続シーン表現を確立するガウス ボクセル カーネル関数 (GVKF) を提案します。
GVKF は、高速 3DGS ラスタライゼーションと非常に効果的なシーンの暗黙的表現を統合し、高忠実度のオープン シーン サーフェスの再構築を実現します。
困難なシーン データセットの実験では、高い再構築品質、リアルタイム レンダリング速度、ストレージとトレーニング メモリ消費量の大幅な節約を特徴とする、私たちが提案する GVKF の効率と有効性を実証しています。
要約(オリジナル)
In this paper we present a novel method for efficient and effective 3D surface reconstruction in open scenes. Existing Neural Radiance Fields (NeRF) based works typically require extensive training and rendering time due to the adopted implicit representations. In contrast, 3D Gaussian splatting (3DGS) uses an explicit and discrete representation, hence the reconstructed surface is built by the huge number of Gaussian primitives, which leads to excessive memory consumption and rough surface details in sparse Gaussian areas. To address these issues, we propose Gaussian Voxel Kernel Functions (GVKF), which establish a continuous scene representation based on discrete 3DGS through kernel regression. The GVKF integrates fast 3DGS rasterization and highly effective scene implicit representations, achieving high-fidelity open scene surface reconstruction. Experiments on challenging scene datasets demonstrate the efficiency and effectiveness of our proposed GVKF, featuring with high reconstruction quality, real-time rendering speed, significant savings in storage and training memory consumption.
arxiv情報
著者 | Gaochao Song,Chong Cheng,Hao Wang |
発行日 | 2024-11-06 12:27:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google