Unifying GANs and Score-Based Diffusion as Generative Particle Models

要約

勾配フローやスコアベースの拡散モデルなどのパーティクルベースの深層生成モデルは、その驚くべきパフォーマンスのおかげで最近注目を集めています。
微分方程式を使用して粒子分布を置き換えるその原理は、プッシュフォワード ジェネレーター ネットワークのトレーニングを必要とする、以前に広く普及していた敵対的生成ネットワーク (GAN) とは対照的であると従来見なされてきました。
この論文では、この解釈に異議を唱え、粒子モデルの一般化としてジェネレータートレーニングをフレーム化することにより、粒子生成モデルと敵対的生成モデルを統合する新しいフレームワークを提案します。
これは、ジェネレーターがそのような生成モデルへのオプションの追加であることを示唆しています。
その結果、ジェネレーターをスコアベースの拡散モデルに統合し、ジェネレーターを使用せずに GAN をトレーニングすることが、フレームワークから自然に生まれます。
私たちは、フレームワークの潜在的なアプリケーションの概念の証明として、これらのオリジナル モデルの実行可能性を経験的にテストします。

要約(オリジナル)

Particle-based deep generative models, such as gradient flows and score-based diffusion models, have recently gained traction thanks to their striking performance. Their principle of displacing particle distributions using differential equations is conventionally seen as opposed to the previously widespread generative adversarial networks (GANs), which involve training a pushforward generator network. In this paper we challenge this interpretation, and propose a novel framework that unifies particle and adversarial generative models by framing generator training as a generalization of particle models. This suggests that a generator is an optional addition to any such generative model. Consequently, integrating a generator into a score-based diffusion model and training a GAN without a generator naturally emerge from our framework. We empirically test the viability of these original models as proofs of concepts of potential applications of our framework.

arxiv情報

著者 Jean-Yves Franceschi,Mike Gartrell,Ludovic Dos Santos,Thibaut Issenhuth,Emmanuel de Bézenac,Mickaël Chen,Alain Rakotomamonjy
発行日 2023-12-21 18:16:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.NE, stat.ML パーマリンク