要約
グループ不変の敵対的生成ネットワーク (GAN) は、ジェネレーターとディスクリミネーターがグループ対称性を持って配線されている GAN の一種です。
実証研究により、これらのネットワークはデータ効率を大幅に向上させてグループ不変分布を学習できることが示されています。
この研究では、グループ不変 GAN のサンプルの複雑さの軽減を分析することで、この改善を厳密に定量化することを目的としています。
私たちの調査結果は、グループ不変分布を学習する場合、グループ不変 GAN に必要なサンプル数はグループ サイズの累乗に比例して減少し、この累乗は分布のサポートの固有次元に依存することを示しています。
私たちの知る限り、この研究はグループ不変生成モデル、特に GAN に対する最初の統計的推定を示しており、他のグループ不変生成モデルの研究に光を当てる可能性があります。
要約(オリジナル)
Group-invariant generative adversarial networks (GANs) are a type of GANs in which the generators and discriminators are hardwired with group symmetries. Empirical studies have shown that these networks are capable of learning group-invariant distributions with significantly improved data efficiency. In this study, we aim to rigorously quantify this improvement by analyzing the reduction in sample complexity for group-invariant GANs. Our findings indicate that when learning group-invariant distributions, the number of samples required for group-invariant GANs decreases proportionally with a power of the group size, and this power depends on the intrinsic dimension of the distribution’s support. To our knowledge, this work presents the first statistical estimation for group-invariant generative models, specifically for GANs, and it may shed light on the study of other group-invariant generative models.
arxiv情報
著者 | Ziyu Chen,Markos A. Katsoulakis,Luc Rey-Bellet,Wei Zhu |
発行日 | 2023-10-16 15:09:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google