Manifold Learning by Mixture Models of VAEs for Inverse Problems

要約

生成モデルを使用して非常に高次元のデータの多様体を表現することは、実際には計算効率が高いことが示されています。
ただし、これには、データ マニホールドがグローバル パラメーター化を許可する必要があります。
任意トポロジーの多様体を表現するために、変分オートエンコーダーの混合モデルを学習することを提案します。
ここで、すべてのエンコーダーとデコーダーのペアは、多様体の 1 つのチャートを表します。
モデルの重みの最尤推定のための損失関数を提案し、チャートとその逆の分析式を提供するアーキテクチャを選択します。
多様体が学習されると、学習された多様体に制限されたデータ忠実度項を最小化することにより、逆問題を解くためにそれを使用します。
発生する最小化の問題を解決するために、学習した多様体に関するリーマン勾配降下アルゴリズムを提案します。
低次元のおもちゃの例、および特定の画像マニホールドでのブレ除去と電気インピーダンス トモグラフィーに対するこの方法のパフォーマンスを示します。

要約(オリジナル)

Representing a manifold of very high-dimensional data with generative models has been shown to be computationally efficient in practice. However, this requires that the data manifold admits a global parameterization. In order to represent manifolds of arbitrary topology, we propose to learn a mixture model of variational autoencoders. Here, every encoder-decoder pair represents one chart of a manifold. We propose a loss function for maximum likelihood estimation of the model weights and choose an architecture that provides us the analytical expression of the charts and of their inverses. Once the manifold is learned, we use it for solving inverse problems by minimizing a data fidelity term restricted to the learned manifold. To solve the arising minimization problem we propose a Riemannian gradient descent algorithm on the learned manifold. We demonstrate the performance of our method for low-dimensional toy examples as well as for deblurring and electrical impedance tomography on certain image manifolds.

arxiv情報

著者 Giovanni S. Alberti,Johannes Hertrich,Matteo Santacesaria,Silvia Sciutto
発行日 2023-03-27 14:29:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク