要約
空間座標に適用されるニューラルネットワークのレベルセットとしてサーフェスをエンコードするニューラル暗黙表現は、3Dジオメトリの最適化、圧縮、および生成に非常に効果的であることが証明されています。
これらの表現は簡単に適合できますが、光線との交差や最も近い点の検索など、形状の幾何学的クエリを最適に評価する方法は明確ではありません。
主なアプローチは、ネットワークに符号付き距離プロパティを持たせることです。
ただし、このプロパティは通常、おおよそしか保持されないため、堅牢性の問題が発生し、トレーニングの終了時にのみ保持されるため、損失関数でのクエリの使用が禁止されます。
代わりに、この作業は、既存のアーキテクチャの広い範囲の一般的な神経陰関数に対して直接クエリを実行するための新しいアプローチを提示します。
私たちの重要なツールは、ニューラルネットワークへの範囲分析の適用であり、自動算術ルールを使用して、ネットワークの出力を領域に制限します。
ニューラルネットワークの範囲分析の研究を行い、非常に効果的なアフィン演算の変形を特定します。
結果の境界を使用して、レイキャスティング、交差テスト、空間階層の構築、高速メッシュ抽出、最接近点評価、バルクプロパティの評価などを含む幾何学的クエリを開発します。
私たちのクエリはGPUで効率的に評価でき、ランダムに初期化されたネットワークでも具体的な精度が保証されるため、トレーニングの目的やそれ以降での使用が可能になります。
また、逆レンダリングへの予備的なアプリケーションも示します。
要約(オリジナル)
Neural implicit representations, which encode a surface as the level set of a neural network applied to spatial coordinates, have proven to be remarkably effective for optimizing, compressing, and generating 3D geometry. Although these representations are easy to fit, it is not clear how to best evaluate geometric queries on the shape, such as intersecting against a ray or finding a closest point. The predominant approach is to encourage the network to have a signed distance property. However, this property typically holds only approximately, leading to robustness issues, and holds only at the conclusion of training, inhibiting the use of queries in loss functions. Instead, this work presents a new approach to perform queries directly on general neural implicit functions for a wide range of existing architectures. Our key tool is the application of range analysis to neural networks, using automatic arithmetic rules to bound the output of a network over a region; we conduct a study of range analysis on neural networks, and identify variants of affine arithmetic which are highly effective. We use the resulting bounds to develop geometric queries including ray casting, intersection testing, constructing spatial hierarchies, fast mesh extraction, closest-point evaluation, evaluating bulk properties, and more. Our queries can be efficiently evaluated on GPUs, and offer concrete accuracy guarantees even on randomly-initialized networks, enabling their use in training objectives and beyond. We also show a preliminary application to inverse rendering.
arxiv情報
著者 | Nicholas Sharp,Alec Jacobson |
発行日 | 2022-06-24 16:45:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google