要約
サンプリングの問題を検討します。ここでは、密度が正規化定数までしか知られていない分布からサンプルを描画することを目的としています。
高次元のデータ分布を近似するための生成モデリングの最近のブレークスルーは、この困難な問題のためのニューラルネットワークベースの方法の開発に大きな関心を集めました。
ただし、ニューラルサンプラーは通常、トレーニング中の軌跡をシミュレートするため、重い計算オーバーヘッドを発生します。
これは、神経サンプラーのシミュレーションのないトレーニング手順の追求を動機付けます。
この作業では、時間依存の正規化フローの助けを借りてシミュレーションを含まないトレーニングを可能にする以前の方法に対するエレガントな変更を提案します。
ただし、最終的には重度のモードの崩壊に苦しんでいます。
綿密な検査で、ほぼすべての成功したニューラルサンプラーがモードの崩壊を避けるためにLangevinの前処理に依存していることがわかります。
さまざまな目的関数を使用していくつかの一般的な方法を体系的に分析し、ランジュビンの前処理がない場合、それらのほとんどが単純なターゲットでさえ適切にカバーできないことを実証します。
最後に、最先端のMCMCメソッド、平行温度(PT)を組み合わせて、神経サンプラーの将来の探索に光を当てる追加の生成モデルを組み合わせることにより、強力なベースラインに注意を向けます。
要約(オリジナル)
We consider the sampling problem, where the aim is to draw samples from a distribution whose density is known only up to a normalization constant. Recent breakthroughs in generative modeling to approximate a high-dimensional data distribution have sparked significant interest in developing neural network-based methods for this challenging problem. However, neural samplers typically incur heavy computational overhead due to simulating trajectories during training. This motivates the pursuit of simulation-free training procedures of neural samplers. In this work, we propose an elegant modification to previous methods, which allows simulation-free training with the help of a time-dependent normalizing flow. However, it ultimately suffers from severe mode collapse. On closer inspection, we find that nearly all successful neural samplers rely on Langevin preconditioning to avoid mode collapsing. We systematically analyze several popular methods with various objective functions and demonstrate that, in the absence of Langevin preconditioning, most of them fail to adequately cover even a simple target. Finally, we draw attention to a strong baseline by combining the state-of-the-art MCMC method, Parallel Tempering (PT), with an additional generative model to shed light on future explorations of neural samplers.
arxiv情報
著者 | Jiajun He,Yuanqi Du,Francisco Vargas,Dinghuai Zhang,Shreyas Padhy,RuiKang OuYang,Carla Gomes,José Miguel Hernández-Lobato |
発行日 | 2025-02-10 17:13:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google