Compact 3D Gaussian Splatting for Static and Dynamic Radiance Fields

要約

3D ガウス スプラッティング (3DGS) は、3D ガウス ベースの表現を活用し、近似ボリューム レンダリングを導入する代替表現として最近登場し、非常に高速なレンダリング速度と期待できる画質を実現します。
さらに、その後の研究では 3DGS をダイナミック 3D シーンに拡張することに成功し、その幅広い用途が実証されました。
ただし、3DGS とそれに続く方法では、レンダリングされたイメージの忠実度を維持するためにかなりの数のガウス分布が必要となり、大量のメモリとストレージが必要となるため、重大な欠点が生じます。
この重大な問題に対処するために、パフォーマンスを犠牲にすることなくガウス ポイントの数を減らすことと、ビュー依存の色や共分散などのガウス属性を圧縮するという 2 つの重要な目標に特に重点を置きます。
この目的を達成するために、高いパフォーマンスを維持しながらガウス数を大幅に削減する学習可能なマスク戦略を提案します。
さらに、球面調和関数に依存するのではなく、グリッドベースのニューラルフィールドを使用することにより、ビュー依存の色のコンパクトかつ効果的な表現を提案します。
最後に、残差ベクトル量子化によって幾何学的および時間的属性をコンパクトに表現するためのコードブックを学習します。
量子化やエントロピー コーディングなどのモデル圧縮技術により、シーン表現の品質を維持しながら、静的シーンの 3DGS と比較してストレージが 25 倍以上削減され、レンダリング速度が向上することが一貫して示されています。
動的なシーンの場合、当社のアプローチは、既存の最先端の方法と比較して 12 倍を超えるストレージ効率を達成し、高品質の再構築を維持します。
私たちの取り組みは、3D シーン表現のための包括的なフレームワークを提供し、高性能、高速トレーニング、コンパクトさ、リアルタイム レンダリングを実現します。
私たちのプロジェクト ページは https://maincold2.github.io/c3dgs/ から入手できます。

要約(オリジナル)

3D Gaussian splatting (3DGS) has recently emerged as an alternative representation that leverages a 3D Gaussian-based representation and introduces an approximated volumetric rendering, achieving very fast rendering speed and promising image quality. Furthermore, subsequent studies have successfully extended 3DGS to dynamic 3D scenes, demonstrating its wide range of applications. However, a significant drawback arises as 3DGS and its following methods entail a substantial number of Gaussians to maintain the high fidelity of the rendered images, which requires a large amount of memory and storage. To address this critical issue, we place a specific emphasis on two key objectives: reducing the number of Gaussian points without sacrificing performance and compressing the Gaussian attributes, such as view-dependent color and covariance. To this end, we propose a learnable mask strategy that significantly reduces the number of Gaussians while preserving high performance. In addition, we propose a compact but effective representation of view-dependent color by employing a grid-based neural field rather than relying on spherical harmonics. Finally, we learn codebooks to compactly represent the geometric and temporal attributes by residual vector quantization. With model compression techniques such as quantization and entropy coding, we consistently show over 25x reduced storage and enhanced rendering speed compared to 3DGS for static scenes, while maintaining the quality of the scene representation. For dynamic scenes, our approach achieves more than 12x storage efficiency and retains a high-quality reconstruction compared to the existing state-of-the-art methods. Our work provides a comprehensive framework for 3D scene representation, achieving high performance, fast training, compactness, and real-time rendering. Our project page is available at https://maincold2.github.io/c3dgs/.

arxiv情報

著者 Joo Chan Lee,Daniel Rho,Xiangyu Sun,Jong Hwan Ko,Eunbyung Park
発行日 2024-08-07 14:56:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク