On diffusion models for amortized inference: Benchmarking and improving stochastic control and sampling

要約

与えられた正規化されていない密度またはエネルギー関数を持つ分布からサンプリングするために拡散モデルをトレーニングする問題を研究します。
シミュレーションベースの変分アプローチやオフポリシー手法 (連続生成フロー ネットワーク) など、いくつかの拡散構造推論手法のベンチマークを行います。
私たちの結果は、既存のアルゴリズムの相対的な利点を明らかにすると同時に、過去の研究からのいくつかの主張に疑問を投げかけます。
また、再生バッファを使用したターゲット空間でのローカル検索に基づく、オフポリシー手法のための新しい探索戦略を提案し、それがさまざまなターゲット分布でのサンプルの品質を向上させることを示します。
研究したサンプリング手法とベンチマークのコードは、償却推論のための拡散モデルに関する将来の作業の基盤として、https://github.com/GFNOrg/gfn-diffusion で公開されています。

要約(オリジナル)

We study the problem of training diffusion models to sample from a distribution with a given unnormalized density or energy function. We benchmark several diffusion-structured inference methods, including simulation-based variational approaches and off-policy methods (continuous generative flow networks). Our results shed light on the relative advantages of existing algorithms while bringing into question some claims from past work. We also propose a novel exploration strategy for off-policy methods, based on local search in the target space with the use of a replay buffer, and show that it improves the quality of samples on a variety of target distributions. Our code for the sampling methods and benchmarks studied is made public at https://github.com/GFNOrg/gfn-diffusion as a base for future work on diffusion models for amortized inference.

arxiv情報

著者 Marcin Sendera,Minsu Kim,Sarthak Mittal,Pablo Lemos,Luca Scimeca,Jarrid Rector-Brooks,Alexandre Adam,Yoshua Bengio,Nikolay Malkin
発行日 2024-02-07 18:51:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク