Neural Flow Diffusion Models: Learnable Forward Process for Improved Diffusion Modelling

要約

従来の拡散モデルは通常、潜在変数にわたる複雑な周辺分布を暗黙的に定義する固定順プロセスに依存しています。
これにより、生成軌道を学習する際の逆プロセスのタスクが複雑になることが多く、拡散モデルの推論にコストがかかることになります。
これらの制限に対処するために、固定線形ガウスを超える広範囲の順プロセスをサポートすることで拡散モデルを強化する新しいフレームワークであるニューラル フロー拡散モデル (NFDM) を導入します。
また、順過程を学習するための新しいパラメータ化手法も提案します。
私たちのフレームワークは、エンドツーエンドのシミュレーション不要の最適化目標を提供し、負の対数尤度の変分上限を効果的に最小化します。
実験結果は、最先端の尤度推定によって証明された NFDM の強力なパフォーマンスを示しています。
さらに、決定論的な直線軌道など、特定の特性を持つ生成ダイナミクスを学習する NFDM の能力を調査します。
この調査は、NFDM の多用途性と幅広い用途に対する可能性を強調しています。

要約(オリジナル)

Conventional diffusion models typically relies on a fixed forward process, which implicitly defines complex marginal distributions over latent variables. This can often complicate the reverse process’ task in learning generative trajectories, and results in costly inference for diffusion models. To address these limitations, we introduce Neural Flow Diffusion Models (NFDM), a novel framework that enhances diffusion models by supporting a broader range of forward processes beyond the fixed linear Gaussian. We also propose a novel parameterization technique for learning the forward process. Our framework provides an end-to-end, simulation-free optimization objective, effectively minimizing a variational upper bound on the negative log-likelihood. Experimental results demonstrate NFDM’s strong performance, evidenced by state-of-the-art likelihood estimation. Furthermore, we investigate NFDM’s capacity for learning generative dynamics with specific characteristics, such as deterministic straight lines trajectories. This exploration underscores NFDM’s versatility and its potential for a wide range of applications.

arxiv情報

著者 Grigory Bartosh,Dmitry Vetrov,Christian A. Naesseth
発行日 2024-04-19 15:10:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, stat.ML パーマリンク