Unveiling the Latent Space Geometry of Push-Forward Generative Models

要約

多くの深層生成モデルは、Generative Adversarial Networks (GAN)やVariational Auto-Encoders (VAE)などの連続生成器によるガウス測定のプッシュフォワードとして定義されています。本研究では、このような深層生成モデルの潜在空間を探索する。これらのモデルの重要な問題は、切断された分布を学習する際に、ターゲット分布のサポートから外れたサンプルを出力する傾向があることである。本研究では、このようなモデルの性能と潜在空間の幾何学的な関係性を調べる。幾何学的測度論の最近の発展に基づいて、潜在空間の次元がモードの数より大きい場合に最適化するための十分条件を証明する。GANの実験を通して、我々の理論結果の妥当性を示し、これらのモデルの潜在空間幾何学に関する新しい知見を得る。さらに、潜在空間に単純なクラスタ構造を強制し、GANの性能を向上させる切り捨て法を提案する。

要約(オリジナル)

Many deep generative models are defined as a push-forward of a Gaussian measure by a continuous generator, such as Generative Adversarial Networks (GANs) or Variational Auto-Encoders (VAEs). This work explores the latent space of such deep generative models. A key issue with these models is their tendency to output samples outside of the support of the target distribution when learning disconnected distributions. We investigate the relationship between the performance of these models and the geometry of their latent space. Building on recent developments in geometric measure theory, we prove a sufficient condition for optimality in the case where the dimension of the latent space is larger than the number of modes. Through experiments on GANs, we demonstrate the validity of our theoretical results and gain new insights into the latent space geometry of these models. Additionally, we propose a truncation method that enforces a simplicial cluster structure in the latent space and improves the performance of GANs.

arxiv情報

著者 Thibaut Issenhuth,Ugo Tanielian,Jérémie Mary,David Picard
発行日 2023-05-15 15:39:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク