要約
この論文では、鋭い勾配空間によって引き起こされる敵対的生成ネットワーク (GAN) のトレーニングの不安定性に対処するために、ペナルティ勾配正規化 (PGN) と呼ばれる新しい正規化方法を提案します。
勾配ペナルティやスペクトル正規化などの既存の研究とは異なり、提案された PGN は弁別器関数にペナルティ勾配ノルム制約を課すだけであり、これにより弁別器の容量が増加します。
さらに、提案されたペナルティ勾配正規化は、ほとんど変更を加えずにさまざまな GAN アーキテクチャに適用できます。
3 つのデータセットに対する広範な実験により、ペナルティ勾配正規化を使用してトレーニングされた GAN が、Frechet インセプション、距離、およびインセプション スコアの両方の点で既存の方法よりも優れていることが示されました。
要約(オリジナル)
In this paper, we propose a novel normalization method called penalty gradient normalization (PGN) to tackle the training instability of Generative Adversarial Networks (GANs) caused by the sharp gradient space. Unlike existing work such as gradient penalty and spectral normalization, the proposed PGN only imposes a penalty gradient norm constraint on the discriminator function, which increases the capacity of the discriminator. Moreover, the proposed penalty gradient normalization can be applied to different GAN architectures with little modification. Extensive experiments on three datasets show that GANs trained with penalty gradient normalization outperform existing methods in terms of both Frechet Inception and Distance and Inception Score.
arxiv情報
著者 | Tian Xia |
発行日 | 2023-06-23 15:57:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google