要約
拡散ベースの生成モデル (DBGM) は、データをターゲット ノイズ分布に摂動させ、この推論拡散プロセスを逆にしてサンプルを生成します。
推論拡散の選択は、可能性とサンプルの質の両方に影響します。
たとえば、補助変数を使用して推論プロセスを拡張すると、サンプルの品質が向上します。
このような多変量拡散を探索することはたくさんありますが、新しいものごとに重要なモデル固有の分析が必要であり、迅速なプロトタイピングと評価を妨げています。
この作業では、多変量拡散モデル (MDM) を研究します。
任意の数の補助変数について、モデル固有の分析を必要とせずに MDM の可能性の下限を最大化するためのレシピを提供します。
次に、指定されたターゲット ノイズ分布の拡散をパラメーター化する方法を示します。
これら 2 つのポイントを組み合わせることで、推論拡散プロセスを最適化できます。
拡散を最適化すると、いくつかのよく知られたプロセスから、すべての線形拡散に対する自動検索まで、簡単な実験が拡張されます。
これらのアイデアを実証するために、2 つの新しい特定の拡散を紹介し、MNIST、CIFAR10、および ImageNet32 データセットでの拡散プロセスを学習します。
学習した MDM が、特定のデータセットとモデル アーキテクチャの拡散の固定された選択肢と比較して、1 ディムあたりのビット数 (BPD) と一致するか、それを上回ることを示します。
要約(オリジナル)
Diffusion-based generative models (DBGMs) perturb data to a target noise distribution and reverse this inference diffusion process to generate samples. The choice of inference diffusion affects both likelihoods and sample quality. For example, extending the inference process with auxiliary variables leads to improved sample quality. While there are many such multivariate diffusions to explore, each new one requires significant model-specific analysis, hindering rapid prototyping and evaluation. In this work, we study Multivariate Diffusion Models (MDMs). For any number of auxiliary variables, we provide a recipe for maximizing a lower-bound on the MDMs likelihood without requiring any model-specific analysis. We then demonstrate how to parameterize the diffusion for a specified target noise distribution; these two points together enable optimizing the inference diffusion process. Optimizing the diffusion expands easy experimentation from just a few well-known processes to an automatic search over all linear diffusions. To demonstrate these ideas, we introduce two new specific diffusions as well as learn a diffusion process on the MNIST, CIFAR10, and ImageNet32 datasets. We show learned MDMs match or surpass bits-per-dims (BPDs) relative to fixed choices of diffusions for a given dataset and model architecture.
arxiv情報
著者 | Raghav Singhal,Mark Goldstein,Rajesh Ranganath |
発行日 | 2023-02-14 18:57:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google