Antithetic Noise in Diffusion Models

要約

拡散モデルにおけるアンチテーテス初期ノイズの体系的な研究を開始します。
多様なデータセット、テキスト条件付けされた潜在的拡散モデル、拡散ポストサンプラーで訓練された無条件モデルを横切ると、各初期ノイズと否定を組み合わせると、一貫して強く負の相関のサンプルが得られることがわかります。
この現象を説明するために、実験と理論分析を組み合わせて、学習したスコア関数はほぼアフィン抗対称(一定のシフトまでの奇妙な対称性)であるという対称性の推測につながり、それを支持する証拠を提供します。
この負の相関を活用すると、2つのアプリケーションが有効になります。(1)質の損失のない安定した拡散などのモデルの画像の多様性の向上、および(2)ダウンストリーム統計を推定する際の不確実性の定量化(たとえば、最大90%の信頼区間)を削る。
これらの利益に基づいて、2点ペアリングをランダム化された準モンテカルロ推定器に拡張し、推定精度をさらに向上させます。
私たちのフレームワークは、トレーニングフリーでモデルに依存しないものであり、ランタイムオーバーヘッドは追加されません。

要約(オリジナル)

We initiate a systematic study of antithetic initial noise in diffusion models. Across unconditional models trained on diverse datasets, text-conditioned latent-diffusion models, and diffusion-posterior samplers, we find that pairing each initial noise with its negation consistently yields strongly negatively correlated samples. To explain this phenomenon, we combine experiments and theoretical analysis, leading to a symmetry conjecture that the learned score function is approximately affine antisymmetric (odd symmetry up to a constant shift), and provide evidence supporting it. Leveraging this negative correlation, we enable two applications: (1) enhancing image diversity in models like Stable Diffusion without quality loss, and (2) sharpening uncertainty quantification (e.g., up to 90% narrower confidence intervals) when estimating downstream statistics. Building on these gains, we extend the two-point pairing to a randomized quasi-Monte Carlo estimator, which further improves estimation accuracy. Our framework is training-free, model-agnostic, and adds no runtime overhead.

arxiv情報

著者 Jing Jia,Sifan Liu,Bowen Song,Wei Yuan,Liyue Shen,Guanyang Wang
発行日 2025-06-06 15:46:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA, stat.CO, stat.ML パーマリンク