要約
この研究では、連続生成ニューラル ネットワーク (CGNN)、つまり連続設定での生成モデルを提示および研究します。CGNN の出力は無限次元の関数空間に属します。
このアーキテクチャは DCGAN からインスピレーションを受けており、1 つの完全に接続された層、複数の畳み込み層、および非線形活性化関数を備えています。
連続 $L^2$ 設定では、各層の空間の次元が、コンパクトにサポートされたウェーブレットの多重解像度解析のスケールに置き換えられます。
CGNN が単射的であることを保証する畳み込みフィルターと非線形性に関する条件を提示します。
この理論は逆問題への応用を見出し、CGNN によって生成された多様体に属する未知数を使用した (おそらく非線形の) 無限次元逆問題に対するリプシッツ安定性推定値を導出することができます。
信号のブレ除去を含むいくつかの数値シミュレーションは、このアプローチを示し、検証します。
要約(オリジナル)
In this work, we present and study Continuous Generative Neural Networks (CGNNs), namely, generative models in the continuous setting: the output of a CGNN belongs to an infinite-dimensional function space. The architecture is inspired by DCGAN, with one fully connected layer, several convolutional layers and nonlinear activation functions. In the continuous $L^2$ setting, the dimensions of the spaces of each layer are replaced by the scales of a multiresolution analysis of a compactly supported wavelet. We present conditions on the convolutional filters and on the nonlinearity that guarantee that a CGNN is injective. This theory finds applications to inverse problems, and allows for deriving Lipschitz stability estimates for (possibly nonlinear) infinite-dimensional inverse problems with unknowns belonging to the manifold generated by a CGNN. Several numerical simulations, including signal deblurring, illustrate and validate this approach.
arxiv情報
著者 | Giovanni S. Alberti,Matteo Santacesaria,Silvia Sciutto |
発行日 | 2024-11-22 16:13:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google