Fast Learning Radiance Fields by Shooting Much Fewer Rays

要約

タイトル:「より少ない光線を使った高速学習ライアンスフィールド」
要約:
– ライアンスフィールドの学習は、新しい視点の合成に驚くべき結果を示しています。
– 学習手順には通常多くの時間がかかるため、最新の方法では、ニューラルネットワークを使用せずに学習したり、より効率的なデータ構造を使用することで学習手順を高速化することが試みられています。
– しかし、これらの特別に設計されたアプローチは、ライアンスフィールドベースの方法のほとんどには適用されません。
– この問題を解決するために、ほぼすべてのライアンスフィールドベースの方法の学習手順を高速化するための一般的な戦略を紹介しています。
– 私たちの鍵となるアイデアは、ほとんどすべてのライアンスフィールドベースの方法の基盤となるマルチビュー体積レンダリング手順で、光線をはるかに少なくすることによって冗長性を減らすことです。
– 我々は、ドラマチックな色の変化があるピクセルでレイを発射することが、学習の負担を大幅に減らし、学習されたライアンスフィールドの精度にほとんど影響を与えないことを発見しました。
– 加えて、私たちは、ビューごとに平均レンダリングエラーに応じて各ノードに自動的に分割するクワッドツリーを採用しており、より複雑な領域でより大きなレンダリングエラーがある場合に動的により多くの光線を発射することができます。
– 私たちは、広く使用されているベンチマークで異なるライアンスフィールドベースの方法で私たちの方法を評価しました。実験結果は、私たちの方法が、より速い学習で最新技術と同等の精度を達成したことを示しています。

要約(オリジナル)

Learning radiance fields has shown remarkable results for novel view synthesis. The learning procedure usually costs lots of time, which motivates the latest methods to speed up the learning procedure by learning without neural networks or using more efficient data structures. However, these specially designed approaches do not work for most of radiance fields based methods. To resolve this issue, we introduce a general strategy to speed up the learning procedure for almost all radiance fields based methods. Our key idea is to reduce the redundancy by shooting much fewer rays in the multi-view volume rendering procedure which is the base for almost all radiance fields based methods. We find that shooting rays at pixels with dramatic color change not only significantly reduces the training burden but also barely affects the accuracy of the learned radiance fields. In addition, we also adaptively subdivide each view into a quadtree according to the average rendering error in each node in the tree, which makes us dynamically shoot more rays in more complex regions with larger rendering error. We evaluate our method with different radiance fields based methods under the widely used benchmarks. Experimental results show that our method achieves comparable accuracy to the state-of-the-art with much faster training.

arxiv情報

著者 Wenyuan Zhang,Ruofan Xing,Yunfan Zeng,Yu-Shen Liu,Kanle Shi,Zhizhong Han
発行日 2023-04-06 06:05:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク