要約
生成モデルの急増にもかかわらず、サンプルの多様性と品質を損なうことなく推論中に高速サンプリングを達成することは依然として課題です。
ノイズ除去拡散確率モデル (DDPM) などの既存のモデルは、高品質で多様なサンプルを提供しますが、本質的に反復ステップの数が多いため速度が低下します。
Denoising Diffusion Generative Adversarial Networks (DDGAN) は、拡散プロセスにおけるより大きなジャンプのために GAN モデルを統合することで、この制限を回避しようとしました。
ただし、DDGAN を大規模なデータセットに適用すると、スケーラビリティの制限が発生します。
これらの制限に対処するために、暗黙的な要因と明示的な要因を一致させることで問題に取り組む新しいアプローチを導入します。
より具体的には、私たちのアプローチには、ノイズを含むデータの周辺分布と前方拡散の明示的な条件付き分布を一致させる陰的モデルの利用が含まれます。
この組み合わせにより、結合ノイズ除去分布を効果的に一致させることができます。
DDPM とは異なり、DDGAN に似ていますが、逆のステップにパラメトリック分布を強制しないため、推論中に大きなステップを実行できます。
DDPM に似ていますが、DDGAN とは異なり、拡散プロセスの正確な形式を利用します。
私たちの提案した方法が拡散ベースのモデルと同等の生成パフォーマンスを獲得し、サンプリング ステップ数が少ないモデルよりも大幅に優れた結果が得られることを実証します。
要約(オリジナル)
Despite the proliferation of generative models, achieving fast sampling during inference without compromising sample diversity and quality remains challenging. Existing models such as Denoising Diffusion Probabilistic Models (DDPM) deliver high-quality, diverse samples but are slowed by an inherently high number of iterative steps. The Denoising Diffusion Generative Adversarial Networks (DDGAN) attempted to circumvent this limitation by integrating a GAN model for larger jumps in the diffusion process. However, DDGAN encountered scalability limitations when applied to large datasets. To address these limitations, we introduce a novel approach that tackles the problem by matching implicit and explicit factors. More specifically, our approach involves utilizing an implicit model to match the marginal distributions of noisy data and the explicit conditional distribution of the forward diffusion. This combination allows us to effectively match the joint denoising distributions. Unlike DDPM but similar to DDGAN, we do not enforce a parametric distribution for the reverse step, enabling us to take large steps during inference. Similar to the DDPM but unlike DDGAN, we take advantage of the exact form of the diffusion process. We demonstrate that our proposed method obtains comparable generative performance to diffusion-based models and vastly superior results to models with a small number of sampling steps.
arxiv情報
著者 | Yanwu Xu,Mingming Gong,Shaoan Xie,Wei Wei,Matthias Grundmann,kayhan Batmanghelich,Tingbo Hou |
発行日 | 2023-06-23 08:44:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google