UDPM: Upsampling Diffusion Probabilistic Models

要約

近年、ノイズ除去拡散確率モデル (DDPM) が大きな注目を集めています。
データ ドメインで開始し、純粋なホワイト ノイズに達するまで徐々にノイズを追加するマルコフ プロセスを構成することで、データ分布の学習において優れたパフォーマンスを実現します。
しかし、これらのモデルでは、見た目に美しいサンプルを作成するために多数の拡散ステップが必要であり、非効率的です。
さらに、一般的な敵対的生成ネットワークとは異なり、拡散モデルの潜在空間は解釈できません。
この研究では、ノイズ除去拡散プロセスをアップサンプリング拡散確率モデル (UDPM) に一般化し、従来のノイズ レベルの追加に加えて潜在変数の次元を削減することを提案します。
その結果、わずか 7 回の拡散ステップで $256\times 256$ のサイズの画像をサンプリングすることができます。これは、標準の DDPM と比較して 2 桁未満です。
私たちは UDPM のマルコフ拡散プロセスを正式に開発し、人気のある FFHQ、LSUN ホース、ImageNet、および AFHQv2 データセットでその生成機能を実証します。
UDPM のもう 1 つの有利な特性は、その潜在空間を補間するのが非常に簡単であることです。これは標準の拡散モデルには当てはまりません。
私たちのコードはオンラインで入手できます \url{https://github.com/shadyabh/UDPM}

要約(オリジナル)

In recent years, Denoising Diffusion Probabilistic Models (DDPM) have caught significant attention. By composing a Markovian process that starts in the data domain and then gradually adds noise until reaching pure white noise, they achieve superior performance in learning data distributions. Yet, these models require a large number of diffusion steps to produce aesthetically pleasing samples, which is inefficient. In addition, unlike common generative adversarial networks, the latent space of diffusion models is not interpretable. In this work, we propose to generalize the denoising diffusion process into an Upsampling Diffusion Probabilistic Model (UDPM), in which we reduce the latent variable dimension in addition to the traditional noise level addition. As a result, we are able to sample images of size $256\times 256$ with only 7 diffusion steps, which is less than two orders of magnitude compared to standard DDPMs. We formally develop the Markovian diffusion processes of the UDPM, and demonstrate its generation capabilities on the popular FFHQ, LSUN horses, ImageNet, and AFHQv2 datasets. Another favorable property of UDPM is that it is very easy to interpolate its latent space, which is not the case with standard diffusion models. Our code is available online \url{https://github.com/shadyabh/UDPM}

arxiv情報

著者 Shady Abu-Hussein,Raja Giryes
発行日 2023-05-25 17:25:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク