Bayes’ Rays: Uncertainty Quantification for Neural Radiance Fields

要約

Neural Radiance Fields (NeRF) は、ビュー合成や深度推定などのアプリケーションで有望であることが示されていますが、マルチビュー画像からの学習には固有の不確実性が伴います。
それらを定量化する現在の方法は、ヒューリスティックであるか、計算を必要とするかのいずれかです。
トレーニング プロセスを変更せずに、事前トレーニングされた NeRF の不確実性を評価するポストホック フレームワークである BayesRays を紹介します。
私たちの方法は、空間摂動とベイズ ラプラス近似を使用して体積不確実性フィールドを確立します。
私たちはアルゴリズムを統計的に導き出し、主要な指標とアプリケーションでその優れたパフォーマンスを示します。
追加の結果は https://bayesrays.github.io で入手できます。

要約(オリジナル)

Neural Radiance Fields (NeRFs) have shown promise in applications like view synthesis and depth estimation, but learning from multiview images faces inherent uncertainties. Current methods to quantify them are either heuristic or computationally demanding. We introduce BayesRays, a post-hoc framework to evaluate uncertainty in any pre-trained NeRF without modifying the training process. Our method establishes a volumetric uncertainty field using spatial perturbations and a Bayesian Laplace approximation. We derive our algorithm statistically and show its superior performance in key metrics and applications. Additional results available at: https://bayesrays.github.io.

arxiv情報

著者 Lily Goli,Cody Reading,Silvia Selllán,Alec Jacobson,Andrea Tagliasacchi
発行日 2023-09-06 17:44:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク