A New Perspective on Stabilizing GANs training: Direct Adversarial Training

要約

生成的敵対的ネットワーク(GAN)は、さまざまなコンピュータービジョンタスクで目覚ましい進歩を遂げた最も人気のある画像生成モデルです。
ただし、トレーニングの不安定性は、すべてのGANベースのアルゴリズムの未解決の問題の1つです。
GANのトレーニングを安定させるために、かなりの数の方法が提案されており、その焦点はそれぞれ、損失関数、正則化および正規化テクノロジー、トレーニングアルゴリズム、およびモデルアーキテクチャに置かれています。
上記の方法とは異なり、この論文では、GANトレーニングの安定化に関する新しい視点を提示します。
ジェネレータによって生成された画像は、トレーニングプロセス中に弁別器の敵対的な例のように動作することがあります。これは、GANの不安定なトレーニングを引き起こす理由の一部である可能性があります。
この発見により、GANのトレーニングプロセスを安定させるための直接敵対的トレーニング(DAT)手法を提案します。
さらに、DAT法が弁別器のリプシッツ定数を適応的に最小化できることを証明します。
DATの高度なパフォーマンスは、複数の損失関数、ネットワークアーキテクチャ、ハイパーパラメータ、およびデータセットで検証されます。
具体的には、DATは、SSGANに基づくCIFAR-100無条件生成で11.5%FID、SSGANに基づくSTL-10無条件生成で10.5%FID、SSGANに基づくLSUN-ベッドルーム無条件生成で13.2%FIDの大幅な改善を達成します。
コードはhttps://github.com/iceli1007/DAT-GANで入手できます

要約(オリジナル)

Generative Adversarial Networks (GANs) are the most popular image generation models that have achieved remarkable progress on various computer vision tasks. However, training instability is still one of the open problems for all GAN-based algorithms. Quite a number of methods have been proposed to stabilize the training of GANs, the focuses of which were respectively put on the loss functions, regularization and normalization technologies, training algorithms, and model architectures. Different from the above methods, in this paper, a new perspective on stabilizing GANs training is presented. It is found that sometimes the images produced by the generator act like adversarial examples of the discriminator during the training process, which may be part of the reason causing the unstable training of GANs. With this finding, we propose the Direct Adversarial Training (DAT) method to stabilize the training process of GANs. Furthermore, we prove that the DAT method is able to minimize the Lipschitz constant of the discriminator adaptively. The advanced performance of DAT is verified on multiple loss functions, network architectures, hyper-parameters, and datasets. Specifically, DAT achieves significant improvements of 11.5% FID on CIFAR-100 unconditional generation based on SSGAN, 10.5% FID on STL-10 unconditional generation based on SSGAN, and 13.2% FID on LSUN-Bedroom unconditional generation based on SSGAN. Code will be available at https://github.com/iceli1007/DAT-GAN

arxiv情報

著者 Ziqiang Li,Pengfei Xia,Rentuo Tao,Hongjing Niu,Bin Li
発行日 2022-07-19 14:47:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク