Ai-Sampler: Adversarial Learning of Markov kernels with involutive maps

要約

マルコフ連鎖モンテカルロ法は、複雑な確率分布からサンプリングする多用途の手法として統計学で人気があります。
この研究では、マルコフ連鎖の遷移カーネルをパラメータ化してトレーニングし、効率的なサンプリングと良好な混合を実現する方法を提案します。
このトレーニング手順により、チェーンの定常分布とデータの経験的分布の間の合計変動距離が最小化されます。
私たちのアプローチは、構築によって詳細なバランスを確保する可逆ニューラル ネットワークから構築された包括的なメトロポリス ヘイスティングス カーネルを活用しています。
可逆性は、関数空間を制限するために使用できる弁別関数の $C_2$ 等分散も意味していることがわかりました。

要約(オリジナル)

Markov chain Monte Carlo methods have become popular in statistics as versatile techniques to sample from complicated probability distributions. In this work, we propose a method to parameterize and train transition kernels of Markov chains to achieve efficient sampling and good mixing. This training procedure minimizes the total variation distance between the stationary distribution of the chain and the empirical distribution of the data. Our approach leverages involutive Metropolis-Hastings kernels constructed from reversible neural networks that ensure detailed balance by construction. We find that reversibility also implies $C_2$-equivariance of the discriminator function which can be used to restrict its function space.

arxiv情報

著者 Evgenii Egorov,Ricardo Valperga,Efstratios Gavves
発行日 2024-06-04 17:00:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク