要約
Neural Radiance Field (NeRF) は、3D シーンの高忠実度のビューを合成する可能性を示していますが、NeRF の標準トレーニング パラダイムは、トレーニング セット内の各画像の重要性が等しいことを前提としています。
この仮定は、複雑なジオメトリを表す特定のビューをレンダリングする際に重大な課題を引き起こし、その結果、最適なパフォーマンスが得られません。
このペーパーでは、現在のトレーニング パラダイムの影響を詳しく調べ、NeRF によるより優れたレンダリング品質を実現するためにこれを再設計します。
視覚的な類似性に基づいて入力ビューを複数のグループに分割し、これらのグループごとに個々のモデルをトレーニングすることで、各モデルが速度や効率を犠牲にすることなく特定の領域に特化できるようになります。
その後、これらの特殊なモデルの知識が教師と生徒の蒸留パラダイムによって 1 つのエンティティに集約され、オンライン レンダリングの空間効率が向上します。
経験的に、私たちは 2 つの公的に利用可能なデータセット、つまり NeRF 合成データセットと Tanks&Temples で新しいトレーニング フレームワークを評価しました。
私たちの評価は、DaC トレーニング パイプラインが、優れた最小値への収束を示しながら、最先端のベースライン モデルのレンダリング品質を向上させることを示しています。
要約(オリジナル)
Neural radiance fields (NeRFs) have exhibited potential in synthesizing high-fidelity views of 3D scenes but the standard training paradigm of NeRF presupposes an equal importance for each image in the training set. This assumption poses a significant challenge for rendering specific views presenting intricate geometries, thereby resulting in suboptimal performance. In this paper, we take a closer look at the implications of the current training paradigm and redesign this for more superior rendering quality by NeRFs. Dividing input views into multiple groups based on their visual similarities and training individual models on each of these groups enables each model to specialize on specific regions without sacrificing speed or efficiency. Subsequently, the knowledge of these specialized models is aggregated into a single entity via a teacher-student distillation paradigm, enabling spatial efficiency for online render-ing. Empirically, we evaluate our novel training framework on two publicly available datasets, namely NeRF synthetic and Tanks&Temples. Our evaluation demonstrates that our DaC training pipeline enhances the rendering quality of a state-of-the-art baseline model while exhibiting convergence to a superior minimum.
arxiv情報
著者 | Rongkai Ma,Leo Lebrat,Rodrigo Santa Cruz,Gil Avraham,Yan Zuo,Clinton Fookes,Olivier Salvado |
発行日 | 2024-01-29 13:23:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google