GigaGS: Scaling up Planar-Based 3D Gaussians for Large Scene Surface Reconstruction

要約

3D ガウス スプラッティング (3DGS) は、新しいビュー合成において有望なパフォーマンスを示しています。
以前の方法は、個々の 3D オブジェクトまたは限られたシーン内のいずれかの表面を取得するように適応させています。
この論文では、大規模なシーンの表面再構成という困難なタスクに取り組む最初の試みを行います。
このタスクは、GPU メモリの消費量が多く、幾何学的表現の詳細レベルが異なり、外観に顕著な不一致があるため、特に困難です。
この目的を達成するために、我々は 3DGS を使用して大規模シーンの高品質な表面再構成を行うための最初の作品である GigaGS を提案します。
GigaGS はまず、空間領域の相互可視性に基づいた分割戦略を適用し、並列処理のためにカメラを効果的にグループ化します。
表面の品質を向上させるために、詳細レベル表現に基づいた新しいマルチビュー測光および幾何学的一貫性制約も提案します。
そうすることで、私たちの方法は詳細な表面構造を再構築できます。
さまざまなデータセットに対して包括的な実験が行われます。
一貫した改善は、GigaGS の優位性を示しています。

要約(オリジナル)

3D Gaussian Splatting (3DGS) has shown promising performance in novel view synthesis. Previous methods adapt it to obtaining surfaces of either individual 3D objects or within limited scenes. In this paper, we make the first attempt to tackle the challenging task of large-scale scene surface reconstruction. This task is particularly difficult due to the high GPU memory consumption, different levels of details for geometric representation, and noticeable inconsistencies in appearance. To this end, we propose GigaGS, the first work for high-quality surface reconstruction for large-scale scenes using 3DGS. GigaGS first applies a partitioning strategy based on the mutual visibility of spatial regions, which effectively grouping cameras for parallel processing. To enhance the quality of the surface, we also propose novel multi-view photometric and geometric consistency constraints based on Level-of-Detail representation. In doing so, our method can reconstruct detailed surface structures. Comprehensive experiments are conducted on various datasets. The consistent improvement demonstrates the superiority of GigaGS.

arxiv情報

著者 Junyi Chen,Weicai Ye,Yifan Wang,Danpeng Chen,Di Huang,Wanli Ouyang,Guofeng Zhang,Yu Qiao,Tong He
発行日 2024-09-10 17:51:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク