要約
トレーニングフリーガイド生成は、エンドユーザーが流れ/拡散モデルの生成プロセスをさらに制御できるようにする広く使用された強力な手法です。
一般的に、勾配ベースのガイダンスのためにこの問題を解決するための2つの技術ファミリが登場しました。つまり、事後ガイダンス(つまり、ターゲット予測モデルを介して現在のサンプルをターゲット分布に投影することによるガイダンス)
この作業では、これらの2つの一見別の家族が、事後ガイダンスをエンドツーエンドのガイダンスの貪欲な戦略として検討することにより、実際に統一できることを示しています。
これら2つのファミリ間の理論的なつながりを探り、連続的な理想勾配と比較して、これら2つの手法の詳細な理論を提供します。
この分析により動機付けられ、これら2つのファミリ間で補間する方法を示し、ガイダンス勾配の計算と精度の間のトレードオフを可能にします。
次に、この作業をいくつかの逆画像の問題と財産誘導分子生成に関する検証します。
要約(オリジナル)
Training-free guided generation is a widely used and powerful technique that allows the end user to exert further control over the generative process of flow/diffusion models. Generally speaking, two families of techniques have emerged for solving this problem for gradient-based guidance: namely, posterior guidance (i.e., guidance via projecting the current sample to the target distribution via the target prediction model) and end-to-end guidance (i.e., guidance by performing backpropagation throughout the entire ODE solve). In this work, we show that these two seemingly separate families can actually be unified by looking at posterior guidance as a greedy strategy of end-to-end guidance. We explore the theoretical connections between these two families and provide an in-depth theoretical of these two techniques relative to the continuous ideal gradients. Motivated by this analysis we then show a method for interpolating between these two families enabling a trade-off between compute and accuracy of the guidance gradients. We then validate this work on several inverse image problems and property-guided molecular generation.
arxiv情報
著者 | Zander W. Blasingame,Chen Liu |
発行日 | 2025-05-19 17:57:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google