Distributional Diffusion Models with Scoring Rules

要約

拡散モデルは高品質の合成データを生成する。このモデルは、データが完全に破壊されるまでガウスノイズを徐々に加える連続時間の順方向プロセスを定義することで動作する。対応する逆過程は、ガウス標本をデータ分布からの標本に徐々に「ノイズ除去」する。しかし、高品質の出力を生成するには、逆過程の忠実な近似を得るために多くの離散化ステップが必要である。これは高価であり、多くの高速化手法の開発の動機となってきた。我々は、ノイズのないデータサンプルの事後{em分布}を学習することで、サンプル生成を行うことを提案する。これによって、逆過程の確率遷移を粗い時間スケールでサンプリングすることができ、出力の品質劣化を最小限に抑えて推論を大幅に高速化することができる。これは、条件付き平均を推定するために使用される標準的な回帰損失を、スコアリングルールに置き換えることで達成される。画像とロボットの軌跡生成において本手法を検証し、少ない離散化ステップで標準的な拡散モデルを一貫して上回る結果を得た。

要約(オリジナル)

Diffusion models generate high-quality synthetic data. They operate by defining a continuous-time forward process which gradually adds Gaussian noise to data until fully corrupted. The corresponding reverse process progressively ‘denoises’ a Gaussian sample into a sample from the data distribution. However, generating high-quality outputs requires many discretization steps to obtain a faithful approximation of the reverse process. This is expensive and has motivated the development of many acceleration methods. We propose to accomplish sample generation by learning the posterior {\em distribution} of clean data samples given their noisy versions, instead of only the mean of this distribution. This allows us to sample from the probability transitions of the reverse process on a coarse time scale, significantly accelerating inference with minimal degradation of the quality of the output. This is accomplished by replacing the standard regression loss used to estimate conditional means with a scoring rule. We validate our method on image and robot trajectory generation, where we consistently outperform standard diffusion models at few discretization steps.

arxiv情報

著者 Valentin De Bortoli,Alexandre Galashov,J. Swaroop Guntupalli,Guangyao Zhou,Kevin Murphy,Arthur Gretton,Arnaud Doucet
発行日 2025-02-04 16:59:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, stat.ML パーマリンク