要約
生成モデルは近年大幅な進歩を遂げていますが、多くの場合、トレーニングと使用は依然として困難でコストがかかります。
これらの欠点に対処する新しいクラスの生成モデルである生成トポロジカル ネットワーク (GTN) を紹介します。
GTN は、トポロジー理論に基づいたシンプルな教師あり学習アプローチを使用して決定論的にトレーニングされます。
GTN はトレーニングが速く、サンプルの生成には標準のフィードフォワード ニューラル ネットワークで 1 回のフォワード パスのみが必要です。
MNIST、CelebA、手と手のひらの画像データセットなど、いくつかのデータセットで GTN の強みを実証します。
最後に、GTN の背後にある理論は、パフォーマンスを向上させるために生成モデルをトレーニングする方法についての洞察を提供します。
コードと重みは、https://github.com/alonalj/GTN で入手できます。
要約(オリジナル)
Generative models have seen significant advancements in recent years, yet often remain challenging and costly to train and use. We introduce Generative Topological Networks (GTNs) — a new class of generative models that addresses these shortcomings. GTNs are trained deterministically using a simple supervised learning approach grounded in topology theory. GTNs are fast to train, and require only a single forward pass in a standard feedforward neural network to generate samples. We demonstrate the strengths of GTNs on several datasets, including MNIST, CelebA and the Hands and Palm Images dataset. Finally, the theory behind GTNs offers insights into how to train generative models for improved performance. Code and weights are available at: https://github.com/alonalj/GTN
arxiv情報
著者 | Alona Levy-Jurgenson,Zohar Yakhini |
発行日 | 2024-08-23 15:23:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google