Learning Diffusion Priors from Observations by Expectation Maximization

要約

拡散モデルはベイジアン逆問題に対する顕著な事前確率であることが最近証明されました。
ただし、これらのモデルをトレーニングするには、通常、大量のクリーンなデータにアクセスする必要があり、設定によっては困難になる可能性があります。
この研究では、不完全でノイズの多い観測のみから拡散モデルをトレーニングするための期待値最大化アルゴリズムに基づく新しい方法を紹介します。
以前の研究とは異なり、私たちの方法は、下流のタスクにとって重要な適切な拡散モデルにつながります。
私たちの方法の一部として、無条件拡散モデルのための改良された事後サンプリング スキームを提案し、動機付けします。
私たちは、私たちの方法の有効性を裏付ける経験的証拠を提示します。

要約(オリジナル)

Diffusion models recently proved to be remarkable priors for Bayesian inverse problems. However, training these models typically requires access to large amounts of clean data, which could prove difficult in some settings. In this work, we present a novel method based on the expectation-maximization algorithm for training diffusion models from incomplete and noisy observations only. Unlike previous works, our method leads to proper diffusion models, which is crucial for downstream tasks. As part of our method, we propose and motivate an improved posterior sampling scheme for unconditional diffusion models. We present empirical evidence supporting the effectiveness of our method.

arxiv情報

著者 François Rozet,Gérôme Andry,François Lanusse,Gilles Louppe
発行日 2024-11-15 18:57:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク