Distributional Diffusion Models with Scoring Rules

要約

拡散モデルは、高品質の合成データを生成します。
それらは、完全に破損するまでデータにガウスノイズを徐々に追加する連続時間の前方プロセスを定義することで動作します。
対応する逆プロセスは、データ分布のサンプルにガウスのサンプルを徐々に「除去」します。
ただし、高品質の出力を生成するには、逆プロセスの忠実な近似を取得するために多くの離散化ステップが必要です。
これは高価であり、多くの加速方法の開発を動機付けています。
この分布の平均のみではなく、ノイズの多いバージョンを考慮して、クリーンデータサンプルの後部{\ em分布}を学習することにより、サンプル生成を達成することを提案します。
これにより、粗い時間スケールで逆プロセスの確率遷移からサンプリングでき、出力の品質の最小限の分解で推論を大幅に加速させます。
これは、条件平均をスコアリングルールに推定するために使用される標準回帰損失を置き換えることによって達成されます。
画像とロボットの軌道生成に関する方法を検証します。この方法では、いくつかの離散化ステップで標準拡散モデルを常に上回ります。

要約(オリジナル)

Diffusion models generate high-quality synthetic data. They operate by defining a continuous-time forward process which gradually adds Gaussian noise to data until fully corrupted. The corresponding reverse process progressively ‘denoises’ a Gaussian sample into a sample from the data distribution. However, generating high-quality outputs requires many discretization steps to obtain a faithful approximation of the reverse process. This is expensive and has motivated the development of many acceleration methods. We propose to accomplish sample generation by learning the posterior {\em distribution} of clean data samples given their noisy versions, instead of only the mean of this distribution. This allows us to sample from the probability transitions of the reverse process on a coarse time scale, significantly accelerating inference with minimal degradation of the quality of the output. This is accomplished by replacing the standard regression loss used to estimate conditional means with a scoring rule. We validate our method on image and robot trajectory generation, where we consistently outperform standard diffusion models at few discretization steps.

arxiv情報

著者 Valentin De Bortoli,Alexandre Galashov,J. Swaroop Guntupalli,Guangyao Zhou,Kevin Murphy,Arthur Gretton,Arnaud Doucet
発行日 2025-02-25 18:21:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク