SPARF: Large-Scale Learning of 3D Sparse Radiance Fields from Few Input Images

要約

ニューラル ラジアンス フィールド (NeRF) の最近の進歩では、新しいビュー合成の問題を、効率的かつ高速なレンダリング (プレノセル、インスタント NGP) のためにスパース ボクセルを使用したスパース ラジアンス フィールド (SRF) 最適化として扱います。
機械学習と 3D 表現としての SRF の採用を活用するために、高解像度で約 40,000 の形状からレンダリングされた $\sim$ 1,700 万の画像で構成される、新しいビュー合成のための大規模な ShapeNet ベースの合成データセットである SPARF を紹介します (
400 X 400 ピクセル)。
このデータセットは、新規ビュー合成用の既存の合成データセットよりも桁違いに大きく、複数のボクセル解像度を持つ 3D に最適化された 100 万を超える放射輝度フィールドが含まれています。
さらに、わずかなビューから疎なボクセル放射輝度フィールドを生成することを学習する新しいパイプライン (SuRFNet) を提案します。
これは、高密度に収集された SPARF データセットと 3D スパース コンボリューションを使用して行われます。
SuRFNet は、少数または 1 つの画像からの部分 SRF と特殊な SRF 損失を使用して、新しいビューからレンダリングできる高品質のまばらなボクセル放射輝度フィールドを生成する方法を学習します。
私たちのアプローチは、最近のベースラインと比較して、ShapeNet 上の少数のビューに基づいた制約のない新しいビュー合成のタスクにおいて最先端の結果を達成します。
SPARF データセットは、コードとモデルとともにプロジェクト Web サイト https://abdullahamdi.com/sparf/ で公開されています。

要約(オリジナル)

Recent advances in Neural Radiance Fields (NeRFs) treat the problem of novel view synthesis as Sparse Radiance Field (SRF) optimization using sparse voxels for efficient and fast rendering (plenoxels,InstantNGP). In order to leverage machine learning and adoption of SRFs as a 3D representation, we present SPARF, a large-scale ShapeNet-based synthetic dataset for novel view synthesis consisting of $\sim$ 17 million images rendered from nearly 40,000 shapes at high resolution (400 X 400 pixels). The dataset is orders of magnitude larger than existing synthetic datasets for novel view synthesis and includes more than one million 3D-optimized radiance fields with multiple voxel resolutions. Furthermore, we propose a novel pipeline (SuRFNet) that learns to generate sparse voxel radiance fields from only few views. This is done by using the densely collected SPARF dataset and 3D sparse convolutions. SuRFNet employs partial SRFs from few/one images and a specialized SRF loss to learn to generate high-quality sparse voxel radiance fields that can be rendered from novel views. Our approach achieves state-of-the-art results in the task of unconstrained novel view synthesis based on few views on ShapeNet as compared to recent baselines. The SPARF dataset is made public with the code and models on the project website https://abdullahamdi.com/sparf/ .

arxiv情報

著者 Abdullah Hamdi,Bernard Ghanem,Matthias Nießner
発行日 2023-08-21 12:53:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T45, cs.CV, cs.LG パーマリンク