要約
フィードフォワード3Dガウススプラッティング(3DGS)モデルは最近、新しいビュー合成の有望なソリューションとして浮上し、シーンごとの3DGS最適化を必要とせずにワンパス推論を可能にします。
ただし、それらのスケーラビリティは、エンコーダーの限られた容量によって根本的に制約されており、入力ビューの数が増えるにつれて、パフォーマンスが低下したり、過度のメモリ消費量になります。
この作業では、情報ボトルネック原理のレンズを介してフィードフォワード3DGSフレームワークを分析し、Zpressorを導入します。これは、マルチビュー入力の効率的な圧縮をコンパクトな潜在状態$ Z $に効率的に圧縮することを可能にし、不可欠なシーン情報を保持しながら、リダンスを捨てます。
具体的には、Zpressorは、既存のフィードフォワード3DGSモデルを、80GB GPUの480p解像度で480p解像度で100を超える入力ビューにスケーリングできます。ビューをアンカーとサポートセットに分割し、サポートビューから情報をアンカービューに圧縮し、圧縮された潜在状態$ Z $を形成することにより、100を超える入力ビューにスケーリングできます。
ZPressorをいくつかの最先端のフィードフォワード3DGSモデルに統合すると、中程度の入力ビューの下でのパフォーマンスが一貫して改善され、2つの大規模なベンチマークDL3DV-10KとRealestate10Kの密なビュー設定の下で堅牢性が向上することを示します。
ビデオの結果、コード、トレーニングモデルは、プロジェクトページhttps://lhmd.top/zpressorで入手できます。
要約(オリジナル)
Feed-forward 3D Gaussian Splatting (3DGS) models have recently emerged as a promising solution for novel view synthesis, enabling one-pass inference without the need for per-scene 3DGS optimization. However, their scalability is fundamentally constrained by the limited capacity of their encoders, leading to degraded performance or excessive memory consumption as the number of input views increases. In this work, we analyze feed-forward 3DGS frameworks through the lens of the Information Bottleneck principle and introduce ZPressor, a lightweight architecture-agnostic module that enables efficient compression of multi-view inputs into a compact latent state $Z$ that retains essential scene information while discarding redundancy. Concretely, ZPressor enables existing feed-forward 3DGS models to scale to over 100 input views at 480P resolution on an 80GB GPU, by partitioning the views into anchor and support sets and using cross attention to compress the information from the support views into anchor views, forming the compressed latent state $Z$. We show that integrating ZPressor into several state-of-the-art feed-forward 3DGS models consistently improves performance under moderate input views and enhances robustness under dense view settings on two large-scale benchmarks DL3DV-10K and RealEstate10K. The video results, code and trained models are available on our project page: https://lhmd.top/zpressor.
arxiv情報
著者 | Weijie Wang,Donny Y. Chen,Zeyu Zhang,Duochao Shi,Akide Liu,Bohan Zhuang |
発行日 | 2025-05-30 06:57:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google