CoSurfGS:Collaborative 3D Surface Gaussian Splatting with Distributed Learning for Large Scene Reconstruction

要約

3D ガウス スプラッティング (3DGS) は、シーンの再構築において優れたパフォーマンスを実証しました。
ただし、既存の GS ベースの表面再構成手法のほとんどは、3D オブジェクトまたは限られたシーンに焦点を当てています。
これらの方法を大規模なシーンの再構成に直接適用すると、メモリ コストの高さ、過剰な時間の消費、幾何学的詳細の欠如などの課題が生じ、実際のアプリケーションでの実装が困難になります。
これらの問題に対処するために、大規模な表面再構成のための分散学習に基づくマルチエージェント協調高速 3DGS 表面再構成フレームワークを提案します。
具体的には、ローカル モデル圧縮 (LMC) とモデル集約スキーム (MAS) を開発し、GPU メモリ消費量を削減しながら大規模シーンの高品質なサーフェス表現を実現します。
Urban3d、MegaNeRF、および BlendedMVS に関する広範な実験により、提案された方法が高速かつスケーラブルな高忠実度の表面再構築とフォトリアリスティックなレンダリングを実現できることが実証されました。
私たちのプロジェクト ページは \url{https://gyy456.github.io/CoSurfGS} から入手できます。

要約(オリジナル)

3D Gaussian Splatting (3DGS) has demonstrated impressive performance in scene reconstruction. However, most existing GS-based surface reconstruction methods focus on 3D objects or limited scenes. Directly applying these methods to large-scale scene reconstruction will pose challenges such as high memory costs, excessive time consumption, and lack of geometric detail, which makes it difficult to implement in practical applications. To address these issues, we propose a multi-agent collaborative fast 3DGS surface reconstruction framework based on distributed learning for large-scale surface reconstruction. Specifically, we develop local model compression (LMC) and model aggregation schemes (MAS) to achieve high-quality surface representation of large scenes while reducing GPU memory consumption. Extensive experiments on Urban3d, MegaNeRF, and BlendedMVS demonstrate that our proposed method can achieve fast and scalable high-fidelity surface reconstruction and photorealistic rendering. Our project page is available at \url{https://gyy456.github.io/CoSurfGS}.

arxiv情報

著者 Yuanyuan Gao,Yalun Dai,Hao Li,Weicai Ye,Junyi Chen,Danpeng Chen,Dingwen Zhang,Tong He,Guofeng Zhang,Junwei Han
発行日 2024-12-23 14:31:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク