Continuous Generative Neural Networks

要約

タイトル:Continuous Generative Neural Networks(連続的生成ニューラルネットワーク)

要約:
– 本研究では、連続的環境における生成モデルであるContinuous Generative Neural Networks(CGNN)を提案し、研究した。
– CGNNの出力は、無限次元の関数空間に属する。
– DCGANを参考にし、完全接続層、複数の畳み込み層、非線形活性化関数を持つアーキテクチャを使用する。
– 連続的$L^2$環境では、各層の空間の次元は、コンパクトな支援ウェーブレットの多重解析の尺度に置き換えられる。
– 畳み込みフィルタや非線形性に関する条件を示し、CGNNが単射であることを保証する理論を提供する。
– この理論は、逆問題に応用され、CGNNによって生成される多様体に属する未知数を持つ(非線形の)無限次元逆問題に対するリプシッツ安定性の推定を導き出すことができる。
– シグナルのぼかしのような複数の数値シミュレーションを行い、このアプローチを実証する。

要約(オリジナル)

In this work, we present and study Continuous Generative Neural Networks (CGNNs), namely, generative models in the continuous setting: the output of a CGNN belongs to an infinite-dimensional function space. The architecture is inspired by DCGAN, with one fully connected layer, several convolutional layers and nonlinear activation functions. In the continuous $L^2$ setting, the dimensions of the spaces of each layer are replaced by the scales of a multiresolution analysis of a compactly supported wavelet. We present conditions on the convolutional filters and on the nonlinearity that guarantee that a CGNN is injective. This theory finds applications to inverse problems, and allows for deriving Lipschitz stability estimates for (possibly nonlinear) infinite-dimensional inverse problems with unknowns belonging to the manifold generated by a CGNN. Several numerical simulations, including signal deblurring, illustrate and validate this approach.

arxiv情報

著者 Giovanni S. Alberti,Matteo Santacesaria,Silvia Sciutto
発行日 2023-04-20 09:41:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, stat.ML パーマリンク