要約
スコアベースの拡散モデルは、条件付き生成と無条件生成の両方に対する効果的なアプローチとして登場しました。
静止条件付き生成は、条件付きモデルの特定のトレーニングまたは分類子ガイダンスのいずれかに基づいており、破損していないデータの分類子が与えられた場合でも、ノイズ依存分類子のトレーニングが必要になります。
事前にトレーニングされた無条件のスコアベースの生成モデルが与えられた場合、追加のトレーニングを必要とせずに、任意の論理制約の下で条件付き分布からサンプリングする方法を提案します。
有効な条件付きサンプルを生成することを目的とした他のゼロショット手法とは異なり、私たちの方法は真の条件付き分布を近似するように設計されています。
まず、ユーザー定義の制約を条件として正規化されていない分布からサンプリングするために学習されたスコアを操作する方法を示します。
次に、ソフト論理制約をエンコードするための、柔軟で数値的に安定した神経記号フレームワークを定義します。
これら 2 つの要素を組み合わせると、一般的ではあるが近似的な条件付きサンプリング アルゴリズムが得られます。
私たちは、近似を改善することを目的とした効果的なヒューリスティックをさらに開発しました。
最後に、表形式データ、画像、時系列など、さまざまなタイプの制約やデータの条件付き分布を近似する際のアプローチの有効性を示します。
要約(オリジナル)
Score-based diffusion models have emerged as effective approaches for both conditional and unconditional generation. Still conditional generation is based on either a specific training of a conditional model or classifier guidance, which requires training a noise-dependent classifier, even when a classifier for uncorrupted data is given. We propose a method that, given a pre-trained unconditional score-based generative model, samples from the conditional distribution under arbitrary logical constraints, without requiring additional training. Differently from other zero-shot techniques, that rather aim at generating valid conditional samples, our method is designed for approximating the true conditional distribution. Firstly, we show how to manipulate the learned score in order to sample from an un-normalized distribution conditional on a user-defined constraint. Then, we define a flexible and numerically stable neuro-symbolic framework for encoding soft logical constraints. Combining these two ingredients we obtain a general, but approximate, conditional sampling algorithm. We further developed effective heuristics aimed at improving the approximation. Finally, we show the effectiveness of our approach in approximating conditional distributions for various types of constraints and data: tabular data, images and time series.
arxiv情報
著者 | Davide Scassola,Sebastiano Saccani,Ginevra Carbone,Luca Bortolussi |
発行日 | 2024-09-18 13:06:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google