要約
拡散モデルにおけるアンチテーテス初期ノイズの体系的な研究を開始します。
多様なデータセット、テキスト条件付けされた潜在的拡散モデル、拡散ポストサンプラーで訓練された無条件モデルを横切ると、各初期ノイズと否定を組み合わせると、一貫して強く負の相関のサンプルが得られることがわかります。
この現象を説明するために、実験と理論分析を組み合わせて、学習したスコア関数はほぼアフィン抗対称(一定のシフトまでの奇妙な対称性)であるという対称性の推測につながり、それを支持する証拠を提供します。
この負の相関を活用すると、2つのアプリケーションが有効になります。(1)質の損失のない安定した拡散などのモデルの画像の多様性の向上、および(2)ダウンストリーム統計を推定する際の不確実性の定量化(たとえば、最大90%の信頼区間)を削る。
これらの利益に基づいて、2点ペアリングをランダム化された準モンテカルロ推定器に拡張し、推定精度をさらに向上させます。
私たちのフレームワークは、トレーニングフリーでモデルに依存しないものであり、ランタイムオーバーヘッドは追加されません。
要約(オリジナル)
We initiate a systematic study of antithetic initial noise in diffusion models. Across unconditional models trained on diverse datasets, text-conditioned latent-diffusion models, and diffusion-posterior samplers, we find that pairing each initial noise with its negation consistently yields strongly negatively correlated samples. To explain this phenomenon, we combine experiments and theoretical analysis, leading to a symmetry conjecture that the learned score function is approximately affine antisymmetric (odd symmetry up to a constant shift), and provide evidence supporting it. Leveraging this negative correlation, we enable two applications: (1) enhancing image diversity in models like Stable Diffusion without quality loss, and (2) sharpening uncertainty quantification (e.g., up to 90% narrower confidence intervals) when estimating downstream statistics. Building on these gains, we extend the two-point pairing to a randomized quasi-Monte Carlo estimator, which further improves estimation accuracy. Our framework is training-free, model-agnostic, and adds no runtime overhead.
arxiv情報
著者 | Jing Jia,Sifan Liu,Bowen Song,Wei Yuan,Liyue Shen,Guanyang Wang |
発行日 | 2025-06-06 15:46:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google