要約
Neural Radiance Fields (NeRF) は、大規模な現実世界のシーンで比類のない忠実度を実現します。
NeRF をスケーリングするための一般的なアプローチは、シーンを領域に分割し、各領域に独自のパラメータを割り当てることです。
このようなアプローチは、単純に実装すると、テスト時のスケーリングが不十分で、外観とジオメトリが一貫性がないため制限されます。
代わりに、モデルのパラメーターのサブセットを使用してターゲット ビューをレンダリングするための新しいアーキテクチャである InterNeRF を提案します。
私たちのアプローチにより、アウトオブコアのトレーニングとレンダリングが可能になり、トレーニング時間のわずかな増加のみでモデルの総容量が増加します。
標準ベンチマークでの競争力を維持しながら、マルチルーム シーンでの大幅な改善を実証しました。
要約(オリジナル)
Neural Radiance Fields (NeRFs) have unmatched fidelity on large, real-world scenes. A common approach for scaling NeRFs is to partition the scene into regions, each of which is assigned its own parameters. When implemented naively, such an approach is limited by poor test-time scaling and inconsistent appearance and geometry. We instead propose InterNeRF, a novel architecture for rendering a target view using a subset of the model’s parameters. Our approach enables out-of-core training and rendering, increasing total model capacity with only a modest increase to training time. We demonstrate significant improvements in multi-room scenes while remaining competitive on standard benchmarks.
arxiv情報
著者 | Clinton Wang,Peter Hedman,Polina Golland,Jonathan T. Barron,Daniel Duckworth |
発行日 | 2024-06-17 16:55:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google