ScanNeRF: a Scalable Benchmark for Neural Radiance Fields

要約

このホワイト ペーパーでは、Neural Radiance Fields (NeRFs) と、一般的には Neural Rendering (NR) フレームワークを評価するための史上初の実際のベンチマークの考え方を提案します。
実際のオブジェクトを大量かつ簡単にスキャンするための効果的なパイプラインを設計および実装します。
当社のスキャン ステーションは 500 ドル未満のハードウェア予算で構築されており、わずか 5 分でスキャン対象の約 4000 枚の画像を収集できます。
このようなプラットフォームは、さまざまな条件下での最新の NeRF メソッドのパフォーマンスをベンチマークすることを目的とした、いくつかのトレーニング/検証/テスト分割によって特徴付けられるデータセットである ScanNeRF を構築するために使用されます。
したがって、3 つの最先端の NeRF バリアントを評価して、それらの長所と短所を強調します。
このデータセットは、より優れた NeRF の開発を促進するためのオンライン ベンチマークと共に、プロジェクト ページで入手できます。

要約(オリジナル)

In this paper, we propose the first-ever real benchmark thought for evaluating Neural Radiance Fields (NeRFs) and, in general, Neural Rendering (NR) frameworks. We design and implement an effective pipeline for scanning real objects in quantity and effortlessly. Our scan station is built with less than 500$ hardware budget and can collect roughly 4000 images of a scanned object in just 5 minutes. Such a platform is used to build ScanNeRF, a dataset characterized by several train/val/test splits aimed at benchmarking the performance of modern NeRF methods under different conditions. Accordingly, we evaluate three cutting-edge NeRF variants on it to highlight their strengths and weaknesses. The dataset is available on our project page, together with an online benchmark to foster the development of better and better NeRFs.

arxiv情報

著者 Luca De Luigi,Damiano Bolognini,Federico Domeniconi,Daniele De Gregorio,Matteo Poggi,Luigi Di Stefano
発行日 2022-12-20 11:24:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク