要約
ニューラル放射輝度フィールド(NERF)や3Dガウススプラッティング(3DG)などの新規ビューレンダリング方法を使用して3Dのインペインティングを実行する場合、カメラビュー全体でテクスチャとジオメトリの一貫性を実現する方法が課題になりました。
この論文では、クロスビューの一貫した3Dインペインティングのための深さ誘導クロスビューの一貫性(3DGIC)を使用して、3Dガウスのインペインティングのフレームワークを提案します。
各トレーニングビューからレンダリングされた深度情報に導かれ、3DGICエクスプロイトバックグラウンドピクセルが異なるビューに表示され、入力マスクを更新するために、インポインティングの目的で3DGSを改良することができます。
定量的および定性的に最先端の3Dのインパインティング方法。
要約(オリジナル)
When performing 3D inpainting using novel-view rendering methods like Neural Radiance Field (NeRF) or 3D Gaussian Splatting (3DGS), how to achieve texture and geometry consistency across camera views has been a challenge. In this paper, we propose a framework of 3D Gaussian Inpainting with Depth-Guided Cross-View Consistency (3DGIC) for cross-view consistent 3D inpainting. Guided by the rendered depth information from each training view, our 3DGIC exploits background pixels visible across different views for updating the inpainting mask, allowing us to refine the 3DGS for inpainting purposes.Through extensive experiments on benchmark datasets, we confirm that our 3DGIC outperforms current state-of-the-art 3D inpainting methods quantitatively and qualitatively.
arxiv情報
著者 | Sheng-Yu Huang,Zi-Ting Chou,Yu-Chiang Frank Wang |
発行日 | 2025-02-17 13:46:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google