Learning Nonparametric High-Dimensional Generative Models: The Empirical-Beta-Copula Autoencoder

要約

オートエンコーダーの潜在空間からサンプリングし、その潜在空間サンプルを元のデータ空間にデコードすることにより、任意のオートエンコーダーを簡単に生成モデルに変えることができます。
これが機能するには、サンプルを取得できる分布を使用してオートエンコーダーの潜在空間をモデル化する必要があります。
いくつかの単純な可能性 (カーネル密度推定、ガウス分布) とより洗練された可能性 (ガウス混合モデル、コピュラ モデル、正規化フロー) が考えられ、最近試行されています。
この研究の目的は、簡素化を目指しながらオートエンコーダーを生成モデルにできるように、潜在空間を捕捉するために使用できるさまざまな手法を議論、評価、比較することです。
その中で、新しいコピュラベースの手法である Empirical Beta Copula Autoencoder が検討されています。
さらに、ターゲットを絞ったサンプリングや特定の特徴を備えた新しいデータの合成など、これらの手法のさらなる側面についての洞察も提供します。

要約(オリジナル)

By sampling from the latent space of an autoencoder and decoding the latent space samples to the original data space, any autoencoder can simply be turned into a generative model. For this to work, it is necessary to model the autoencoder’s latent space with a distribution from which samples can be obtained. Several simple possibilities (kernel density estimates, Gaussian distribution) and more sophisticated ones (Gaussian mixture models, copula models, normalization flows) can be thought of and have been tried recently. This study aims to discuss, assess, and compare various techniques that can be used to capture the latent space so that an autoencoder can become a generative model while striving for simplicity. Among them, a new copula-based method, the Empirical Beta Copula Autoencoder, is considered. Furthermore, we provide insights into further aspects of these methods, such as targeted sampling or synthesizing new data with specific features.

arxiv情報

著者 Maximilian Coblenz,Oliver Grothe,Fabian Kächele
発行日 2023-09-18 16:29:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク