Generative Topological Networks

要約

生成手法は最近、データの低次元の潜在表現を生成することにより大幅な改善が見られました。
ただし、潜在空間に適用される生成手法の多くは依然として複雑で、トレーニングが困難です。
さらに、なぜ低次元の潜在空間への移行が生成の質を向上させることができるのかは完全には明らかではありません。
この研究では、トポロジー理論に基づいた新しくてシンプルな生成手法である生成トポロジカル ネットワーク (GTN) を紹介します。これは、なぜ低次元の潜在空間表現がデータ生成に適しているのかについての洞察も提供します。
GTN はトレーニングが簡単です。標準的な教師あり学習アプローチを採用しており、モード崩壊、事後崩壊、またはニューラル ネットワーク アーキテクチャに制約を課す必要性など、一般的な生成上の落とし穴に悩まされることはありません。
データの低次元潜在表現で GTN をトレーニングすることにより、MNIST、CelebA、CIFAR-10、手と手のひらの画像データセットを含むいくつかのデータセットでの GTN の使用を実証します。
GTN は VAE を改善できること、および GTN が迅速に収束し、初期のエポックで現実的なサンプルを生成することを示します。
さらに、GTN の開発の背後にあるトポロジカルな考慮事項を使用して、生成モデルが低次元の潜在空間で動作することでメリットが得られる理由についての洞察を提供し、データの固有の次元とデータが存在する次元の間の重要なつながりを強調します。
生成された。
特に、高次元周囲空間での生成が、拡散モデルによって生成される分布外サンプルの寄与要因である可能性があることを実証します。
また、生成モデルの使用および設計時に考慮することが重要な他のトポロジー特性についても強調します。
コードは https://github.com/alonalj/GTN で入手できます。

要約(オリジナル)

Generative methods have recently seen significant improvements by generating in a lower-dimensional latent representation of the data. However, many of the generative methods applied in the latent space remain complex and difficult to train. Further, it is not entirely clear why transitioning to a lower-dimensional latent space can improve generative quality. In this work, we introduce a new and simple generative method grounded in topology theory — Generative Topological Networks (GTNs) — which also provides insights into why lower-dimensional latent-space representations might be better-suited for data generation. GTNs are simple to train — they employ a standard supervised learning approach and do not suffer from common generative pitfalls such as mode collapse, posterior collapse or the need to pose constraints on the neural network architecture. We demonstrate the use of GTNs on several datasets, including MNIST, CelebA, CIFAR-10 and the Hands and Palm Images dataset by training GTNs on a lower-dimensional latent representation of the data. We show that GTNs can improve upon VAEs and that they are quick to converge, generating realistic samples in early epochs. Further, we use the topological considerations behind the development of GTNs to offer insights into why generative models may benefit from operating on a lower-dimensional latent space, highlighting the important link between the intrinsic dimension of the data and the dimension in which the data is generated. Particularly, we demonstrate that generating in high dimensional ambient spaces may be a contributing factor to out-of-distribution samples generated by diffusion models. We also highlight other topological properties that are important to consider when using and designing generative models. Our code is available at: https://github.com/alonalj/GTN

arxiv情報

著者 Alona Levy-Jurgenson,Zohar Yakhini
発行日 2025-01-21 14:38:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク