要約
ノイズ拡散確率モデル(DDPM)は敵対的な学習なしに高品質な画像生成を達成しているが,サンプルを生成するために多くのステップでマルコフ連鎖をシミュレートする必要がある.サンプリングを高速化するために、我々はDDPMと同じ学習手順を持つ反復暗黙確率モデルのより効率的なクラスである雑音拡散暗黙モデル(DDIMs)を提示する。DDPMでは、生成過程がマルコフ拡散過程の逆として定義される。我々は、同じ学習目的をもたらす非マルコフ拡散過程のクラスを構築するが、その逆過程はサンプリングをより高速に行うことが可能である。その結果、DDIMはDDPMと比較して、高品質のサンプルを壁掛け時間にして10倍から50倍速く生成でき、サンプル品質と計算をトレードオフできること、潜在空間において意味的に意味のある画像補間を直接実行できることを経験的に示した。
要約(オリジナル)
Denoising diffusion probabilistic models (DDPMs) have achieved high quality image generation without adversarial training, yet they require simulating a Markov chain for many steps to produce a sample. To accelerate sampling, we present denoising diffusion implicit models (DDIMs), a more efficient class of iterative implicit probabilistic models with the same training procedure as DDPMs. In DDPMs, the generative process is defined as the reverse of a Markovian diffusion process. We construct a class of non-Markovian diffusion processes that lead to the same training objective, but whose reverse process can be much faster to sample from. We empirically demonstrate that DDIMs can produce high quality samples $10 \times$ to $50 \times$ faster in terms of wall-clock time compared to DDPMs, allow us to trade off computation for sample quality, and can perform semantically meaningful image interpolation directly in the latent space.
arxiv情報
著者 | Jiaming Song,Chenlin Meng,Stefano Ermon |
発行日 | 2022-06-09 04:19:30+00:00 |
arxivサイト | arxiv_id(pdf) |