Elucidating the Exposure Bias in Diffusion Models

要約

拡散モデルは優れた生成機能を実証していますが、トレーニングとサンプリングの間の入力の不一致として説明される「露出バイアス」問題については、詳細な調査が不足しています。
この論文では、最初にサンプリング分布を分析的にモデル化することで、拡散モデルにおける露出バイアスの問題を系統的に調査し、それに基づいて各サンプリング ステップでの予測誤差が露出バイアス問題の根本原因であると考えます。
さらに、この問題に対する潜在的な解決策について議論し、直感的な指標を提案します。
露出バイアスの解明に加えて、露出バイアスを軽減するための、イプシロン スケーリングと呼ばれる、シンプルかつ効果的でトレーニング不要の手法を提案します。
Epsilon Scaling は、ネットワーク出力 (Epsilon) をスケールダウンすることにより、トレーニング段階で学習されたベクトル場にサンプリング軌道を明示的に近づけ、トレーニングとサンプリングの間の入力の不一致を軽減することを示します。
さまざまな拡散フレームワーク (ADM、DDPM/DDIM、LDM)、無条件および条件付き設定、決定的サンプリングと確率的サンプリングの実験により、私たちの方法の有効性が検証されます。

要約(オリジナル)

Diffusion models have demonstrated impressive generative capabilities, but their ‘exposure bias’ problem, described as the input mismatch between training and sampling, lacks in-depth exploration. In this paper, we systematically investigate the exposure bias problem in diffusion models by first analytically modelling the sampling distribution, based on which we then attribute the prediction error at each sampling step as the root cause of the exposure bias issue. Furthermore, we discuss potential solutions to this issue and propose an intuitive metric for it. Along with the elucidation of exposure bias, we propose a simple, yet effective, training-free method called Epsilon Scaling to alleviate the exposure bias. We show that Epsilon Scaling explicitly moves the sampling trajectory closer to the vector field learned in the training phase by scaling down the network output (Epsilon), mitigating the input mismatch between training and sampling. Experiments on various diffusion frameworks (ADM, DDPM/DDIM, LDM), unconditional and conditional settings, and deterministic vs. stochastic sampling verify the effectiveness of our method.

arxiv情報

著者 Mang Ning,Mingxiao Li,Jianlin Su,Albert Ali Salah,Itir Onal Ertugrul
発行日 2023-08-30 08:20:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク