Selectively increasing the diversity of GAN-generated samples

要約

生成的敵対的ネットワーク(GAN)は、実際のデータの分布によく似たデータサンプルを合成できる強力なモデルですが、GANで観察されるいわゆるモード崩壊現象のため、生成されたサンプルの多様性は制限されます。
特にモード崩壊を起こしやすいのは条件付きGANであり、入力ノイズベクトルを無視して条件付き情報に焦点を合わせる傾向があります。
この制限を緩和するために提案された最近の方法は、生成されるサンプルの多様性を高めますが、サンプルの類似性が必要な場合、モデルのパフォーマンスを低下させます。
この欠点に対処するために、GANで生成されたサンプルの多様性を選択的に増やす新しい方法を提案します。
トレーニング損失関数にシンプルでありながら効果的な正則化を追加することにより、ジェネレーターが多様な出力に関連する入力の新しいデータモードを検出し、残りのサンプルの一貫したサンプルを生成することをお勧めします。
より正確には、生成された画像と入力潜在ベクトルの間の距離の比率を最大化し、特定の条件付き入力のサンプルの多様性に応じて効果をスケーリングします。
合成ベンチマークと、LHC、CERNでのALICE実験のゼロ度熱量計からのデータをシミュレートする実際のシナリオで、この方法の優位性を示します。

要約(オリジナル)

Generative Adversarial Networks (GANs) are powerful models able to synthesize data samples closely resembling the distribution of real data, yet the diversity of those generated samples is limited due to the so-called mode collapse phenomenon observed in GANs. Especially prone to mode collapse are conditional GANs, which tend to ignore the input noise vector and focus on the conditional information. Recent methods proposed to mitigate this limitation increase the diversity of generated samples, yet they reduce the performance of the models when similarity of samples is required. To address this shortcoming, we propose a novel method to selectively increase the diversity of GAN-generated samples. By adding a simple, yet effective regularization to the training loss function we encourage the generator to discover new data modes for inputs related to diverse outputs while generating consistent samples for the remaining ones. More precisely, we maximise the ratio of distances between generated images and input latent vectors scaling the effect according to the diversity of samples for a given conditional input. We show the superiority of our method in a synthetic benchmark as well as a real-life scenario of simulating data from the Zero Degree Calorimeter of ALICE experiment in LHC, CERN.

arxiv情報

著者 Jan Dubiński,Kamil Deja,Sandro Wenzel,Przemysław Rokita,Tomasz Trzciński
発行日 2022-07-07 17:07:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク