要約
3Dガウススプラッティング(3DG)は、新しいビューの合成に大きな進歩を遂げましたが、必要なガウスプリミティブのかなりの数によって制限されており、軽量デバイスへの展開の課題を提起しています。
最近の方法は、密なガウスの貯蔵サイズを圧縮することによりこの問題に対処していますが、レンダリングの品質と効率を維持できません。
これらの制限を克服するために、ガウスのプロトタイプがガウスプリミティブを表すことを学ぶためにプロトグを提案し、視覚的な品質を犠牲にすることなく総ガウス量を大幅に減らします。
私たちの方法は、ガウスのプロトタイプを直接使用して、結果として生じる再構築損失を効率的にレンダリングし、プロトタイプ学習を導くことを可能にします。
トレーニング中にメモリ効率をさらに最適化するために、アンカーポイントがグループガウスプリミティブにポイントを獲得するため、構造からモーション(SFM)ポイントを組み込みます。
ガウスのプロトタイプは、各グループ内でK-meansのクラスタリングによって導出され、アンカーポイントとプロトタイプの両方が共同で最適化されます。
実際のデータセットと合成データセットに関する実験は、既存の方法を上回り、ガウスの数を大幅に削減し、レンダリング速度を維持しながら忠実度を維持または強化することを可能にすることが証明されています。
要約(オリジナル)
3D Gaussian Splatting (3DGS) has made significant strides in novel view synthesis but is limited by the substantial number of Gaussian primitives required, posing challenges for deployment on lightweight devices. Recent methods address this issue by compressing the storage size of densified Gaussians, yet fail to preserve rendering quality and efficiency. To overcome these limitations, we propose ProtoGS to learn Gaussian prototypes to represent Gaussian primitives, significantly reducing the total Gaussian amount without sacrificing visual quality. Our method directly uses Gaussian prototypes to enable efficient rendering and leverage the resulting reconstruction loss to guide prototype learning. To further optimize memory efficiency during training, we incorporate structure-from-motion (SfM) points as anchor points to group Gaussian primitives. Gaussian prototypes are derived within each group by clustering of K-means, and both the anchor points and the prototypes are optimized jointly. Our experiments on real-world and synthetic datasets prove that we outperform existing methods, achieving a substantial reduction in the number of Gaussians, and enabling high rendering speed while maintaining or even enhancing rendering fidelity.
arxiv情報
著者 | Zhengqing Gao,Dongting Hu,Jia-Wang Bian,Huan Fu,Yan Li,Tongliang Liu,Mingming Gong,Kun Zhang |
発行日 | 2025-04-08 12:19:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google