要約
拡散モデルは、多くの生成タスク、特に超解像や修復などの画像から画像への生成タスクで頼りになる方法になりました。
現在の拡散ベースの方法は、生成された結果に関する統計的保証を提供しないため、リスクの高い状況での使用が妨げられることがよくあります。
このギャップを埋めるために、生成された各ピクセルの周りに信頼区間を作成し、ユーザーが設定した確率でピクセルの真の値がその区間内に収まることを保証します。
拡散モデルはデータ分布をパラメータ化するため、このような間隔を構築する簡単な方法は、複数のサンプルを描画してそれらの境界を計算することです。
ただし、この方法にはいくつかの欠点があります。i) サンプリング速度が遅い、ii) 境界が最適ではない、iii) タスクごとに拡散モデルをトレーニングする必要がある。
これらの欠点を軽減するために、事前にトレーニングされた拡散モデルを微調整して、単一のフォワードパスで間隔の境界を予測する Conffusion を提案します。
Conffusion がベースライン メソッドよりも優れている一方で、3 桁も高速であることを示しています。
要約(オリジナル)
Diffusion models have become the go-to method for many generative tasks, particularly for image-to-image generation tasks such as super-resolution and inpainting. Current diffusion-based methods do not provide statistical guarantees regarding the generated results, often preventing their use in high-stakes situations. To bridge this gap, we construct a confidence interval around each generated pixel such that the true value of the pixel is guaranteed to fall within the interval with a probability set by the user. Since diffusion models parametrize the data distribution, a straightforward way of constructing such intervals is by drawing multiple samples and calculating their bounds. However, this method has several drawbacks: i) slow sampling speeds ii) suboptimal bounds iii) requires training a diffusion model per task. To mitigate these shortcomings we propose Conffusion, wherein we fine-tune a pre-trained diffusion model to predict interval bounds in a single forward pass. We show that Conffusion outperforms the baseline method while being three orders of magnitude faster.
arxiv情報
著者 | Eliahu Horwitz,Yedid Hoshen |
発行日 | 2022-11-17 18:58:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google