Constrained Diffusion Models via Dual Training

要約

拡散モデルは、拡散プロセスを通じて特定のデータセットの確率分布を合成する機能で注目を集め、高い忠実度で新しいデータ ポイントを生成できるようになりました。
ただし、拡散プロセスでは、トレーニング データセットに基づいて偏ったデータが生成される傾向があります。
この問題に対処するために、要件によって通知される望ましい分布に基づいて拡散制約を課すことにより、制約付き拡散モデルを開発します。
具体的には、要件に基づいた拡散モデルのトレーニングを、生成されたデータの分布に関する制約に従いながら、元のデータと生成されたデータの間の分布の差を減らすことを目的とした制約付き分布最適化問題としてキャストします。
制約付き拡散モデルが、目的と制約の間の最適なトレードオフを達成する混合データ分布から新しいデータを生成することを示します。
制約付き拡散モデルをトレーニングするために、デュアル トレーニング アルゴリズムを開発し、トレーニングされた制約付き拡散モデルの最適性を特徴付けます。
私たちは、2 つの制約付き生成タスクで制約付きモデルの有効性を経験的に実証します。(i) 推論中にすべてのクラスから公平にサンプリングすることを保証するために、制約付きでモデルをトレーニングする 1 つ以上の過小評価されたクラスを含むデータセットを検討します。
(ii) 過剰適合を回避しながら、新しいデータセットからサンプリングするために事前トレーニングされた拡散モデルを微調整します。

要約(オリジナル)

Diffusion models have attained prominence for their ability to synthesize a probability distribution for a given dataset via a diffusion process, enabling the generation of new data points with high fidelity. However, diffusion processes are prone to generating biased data based on the training dataset. To address this issue, we develop constrained diffusion models by imposing diffusion constraints based on desired distributions that are informed by requirements. Specifically, we cast the training of diffusion models under requirements as a constrained distribution optimization problem that aims to reduce the distribution difference between original and generated data while obeying constraints on the distribution of generated data. We show that our constrained diffusion models generate new data from a mixture data distribution that achieves the optimal trade-off among objective and constraints. To train constrained diffusion models, we develop a dual training algorithm and characterize the optimality of the trained constrained diffusion model. We empirically demonstrate the effectiveness of our constrained models in two constrained generation tasks: (i) we consider a dataset with one or more underrepresented classes where we train the model with constraints to ensure fairly sampling from all classes during inference; (ii) we fine-tune a pre-trained diffusion model to sample from a new dataset while avoiding overfitting.

arxiv情報

著者 Shervin Khalafi,Dongsheng Ding,Alejandro Ribeiro
発行日 2024-08-27 14:25:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, math.OC パーマリンク