Deep Learning on Implicit Neural Datasets

要約

暗黙のニューラル表現(INR)は、連続データを格納するための高速で軽量なツールになりましたが、これまで、データ表現としてINRを使用して直接学習する一般的な方法はありません。
グリッドベースの機能や操作に戻ることなく、あらゆるタイプのINRを使用して直接学習および推論するための原理的なディープラーニングフレームワークを紹介します。
当社のINR-Netは、不一致の少ないシーケンスでINRを評価し、ネットワーク全体で準モンテカルロ(QMC)統合を可能にします。
INR-Netは、$ L ^2$関数間の大規模なクラスのマップ上の普遍近似であることが証明されています。
さらに、INR-Netは、経験的尺度の下で収束勾配を持ち、バックプロパゲーションを可能にします。
離散ネットワークの継続的な一般化としてINR-Netを設計し、事前にトレーニングされたモデルで初期化できるようにします。
分類(INR $ \ to $ label)およびセグメンテーション(INR $ \ to $ INR)タスクに関するINR-Netの学習を示します。

要約(オリジナル)

Implicit neural representations (INRs) have become fast, lightweight tools for storing continuous data, but to date there is no general method for learning directly with INRs as a data representation. We introduce a principled deep learning framework for learning and inference directly with INRs of any type without reverting to grid-based features or operations. Our INR-Nets evaluate INRs on a low discrepancy sequence, enabling quasi-Monte Carlo (QMC) integration throughout the network. We prove INR-Nets are universal approximators on a large class of maps between $L^2$ functions. Additionally, INR-Nets have convergent gradients under the empirical measure, enabling backpropagation. We design INR-Nets as a continuous generalization of discrete networks, enabling them to be initialized with pre-trained models. We demonstrate learning of INR-Nets on classification (INR$\to$label) and segmentation (INR$\to$INR) tasks.

arxiv情報

著者 Clinton J. Wang,Polina Golland
発行日 2022-06-02 17:44:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.NE パーマリンク