Selectively increasing the diversity of GAN-generated samples

要約

Generative Adversarial Networks (GAN) は、実データの分布に近いデータサンプルを合成できる強力なモデルであるが、GANで見られるいわゆるモード崩壊現象により、生成されるサンプルの多様性が制限される。特に、条件付きGANは入力ノイズを無視し、条件情報を重視する傾向があるため、モード崩壊が起こりやすいと言われています。この限界を緩和するために提案された最近の手法は、生成されるサンプルの多様性を高める一方で、サンプルの類似性が求められる場合にはモデルの性能を低下させる。そこで、本論文では、GANが生成するサンプルの多様性を選択的に増加させる手法を提案する。学習損失関数に簡単かつ効果的な正則化を加えることで、多様な出力に関連する入力に対して新しいデータモードを発見するよう生成器を促す一方、残りのものに対しては一貫したサンプルを生成する。より正確には、生成された画像と入力潜在ベクトル間の距離の比率を最大化し、与えられた条件付き入力に対するサンプルの多様性に応じてその効果をスケーリングする。本手法の優位性を、合成ベンチマークと、CERN の LHC にある ALICE 実験のゼロ度熱量計からのデータをシミュレートする実シナリオで示す。

要約(オリジナル)

Generative Adversarial Networks (GANs) are powerful models able to synthesize data samples closely resembling the distribution of real data, yet the diversity of those generated samples is limited due to the so-called mode collapse phenomenon observed in GANs. Especially prone to mode collapse are conditional GANs, which tend to ignore the input noise vector and focus on the conditional information. Recent methods proposed to mitigate this limitation increase the diversity of generated samples, yet they reduce the performance of the models when similarity of samples is required. To address this shortcoming, we propose a novel method to selectively increase the diversity of GAN-generated samples. By adding a simple, yet effective regularization to the training loss function we encourage the generator to discover new data modes for inputs related to diverse outputs while generating consistent samples for the remaining ones. More precisely, we maximise the ratio of distances between generated images and input latent vectors scaling the effect according to the diversity of samples for a given conditional input. We show the superiority of our method in a synthetic benchmark as well as a real-life scenario of simulating data from the Zero Degree Calorimeter of ALICE experiment in LHC, CERN.

arxiv情報

著者 Jan Dubiński,Kamil Deja,Sandro Wenzel,Przemysław Rokita,Tomasz Trzciński
発行日 2022-07-04 16:27:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク