Discretization Invariant Learning on Neural Fields

要約

ニューラル フィールドは連続データの強力な表現として登場しましたが、フィールドのサンプリング方法に影響されずにそのようなデータを推論できるニューラル ネットワークが必要です。これは、離散化不変性と呼ばれる特性です。
任意のタイプのニューラル フィールドで離散化不変演算子を学習するためのフレームワークである DI-Net を開発しています。
離散化不変ネットワークの現在の理論的分析は無限サンプルの制限に制限されていますが、私たちの分析は無限サンプルを必要とせず、さまざまな有限離散化が与えられた DI-Net 出力の変動の上限を確立します。
私たちのフレームワークは、低不一致の離散化による準モンテカルロ サンプリングによる数値積分によって駆動されるニューラル ネットワークのファミリーにつながります。
DI-Net は、$L^2$ 関数間の大規模なクラスのマップの普遍的な近似や、離散化不変でもある勾配など、望ましい理論的特性を明示します。
DI-Net は、それぞれ畳み込みニューラル ネットワーク (CNN) やニューラル オペレーターなどの離散ネットワーク クラスと連続ネットワーク クラスを橋渡しするため、多くの既存のネットワーク ファミリの一般化と見なすこともできます。
実験的に、CNN から派生した DI-Net は、さまざまな離散化の下でニューラル フィールドによって表されるビジュアル データを分類およびセグメント化することを学習でき、場合によってはテスト時に新しいタイプの離散化に一般化することさえできます。
コード: https://github.com/clintonjwang/DI-net.

要約(オリジナル)

While neural fields have emerged as powerful representations of continuous data, there is a need for neural networks that can perform inference on such data without being sensitive to how the field is sampled, a property called discretization invariance. We develop DI-Net, a framework for learning discretization invariant operators on neural fields of any type. Whereas current theoretical analyses of discretization invariant networks are restricted to the limit of infinite samples, our analysis does not require infinite samples and establishes upper bounds on the variation in DI-Net outputs given different finite discretizations. Our framework leads to a family of neural networks driven by numerical integration via quasi-Monte Carlo sampling with discretizations of low discrepancy. DI-Nets manifest desirable theoretical properties such as universal approximation of a large class of maps between $L^2$ functions, and gradients that are also discretization invariant. DI-Nets can also be seen as generalizations of many existing network families as they bridge discrete and continuous network classes, such as convolutional neural networks (CNNs) and neural operators respectively. Experimentally, DI-Nets derived from CNNs can learn to classify and segment visual data represented by neural fields under various discretizations, and sometimes even generalize to new types of discretizations at test time. Code: https://github.com/clintonjwang/DI-net.

arxiv情報

著者 Clinton J. Wang,Polina Golland
発行日 2022-11-23 17:40:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.NE パーマリンク