Training neural control variates using correlated configurations

要約

ニューラルコントロールバリエート(NCV)は、特に従来の制御バリエートが分析的に構築するのが困難な高次元の問題で、モンテカルロ(MC)シミュレーションの分散削減のための強力なツールとして浮上しています。
観察可能なターゲットと相関する補助機能を学ぶためにニューラルネットワークをトレーニングすることにより、NCVは不偏を維持しながら推定器の分散を大幅に減らすことができます。
ただし、NCVトレーニングの重要であるが見落とされがちな側面は、Markov Chain Monte Carlo(MCMC)によって生成された自己相関サンプルの役割です。
そのようなサンプルは通常、統計的冗長性のためにエラー推定のために破棄されますが、トレーニングプロセスに利益をもたらす可能性のある基礎となる確率分布の構造に関する有用な情報が含まれている場合があります。
この作業では、ニューラル制御のバリエートをトレーニングする際に相関した構成を使用する効果を体系的に調べます。
概念的および数値的に、相関データのトレーニングにより、特に限られた計算リソースを持つ設定で制御の変化パフォーマンスが向上することを実証します。
分析には、$ U(1)$ゲージ理論とスカラーフィールド理論の経験的結果が含まれており、自己相関サンプルがNCV構造をいつ、どのように促進するかを示しています。
これらの調査結果は、ニューラルネットワークのトレーニングにおけるMCMCデータを効率的に使用するための実用的なガイダンスを提供します。

要約(オリジナル)

Neural control variates (NCVs) have emerged as a powerful tool for variance reduction in Monte Carlo (MC) simulations, particularly in high-dimensional problems where traditional control variates are difficult to construct analytically. By training neural networks to learn auxiliary functions correlated with the target observable, NCVs can significantly reduce estimator variance while preserving unbiasedness. However, a critical but often overlooked aspect of NCV training is the role of autocorrelated samples generated by Markov Chain Monte Carlo (MCMC). While such samples are typically discarded for error estimation due to their statistical redundancy, they may contain useful information about the structure of the underlying probability distribution that can benefit the training process. In this work, we systematically examine the effect of using correlated configurations in training neural control variates. We demonstrate, both conceptually and numerically, that training on correlated data can improve control variate performance, especially in settings with limited computational resources. Our analysis includes empirical results from $U(1)$ gauge theory and scalar field theory, illustrating when and how autocorrelated samples enhance NCV construction. These findings provide practical guidance for the efficient use of MCMC data in training neural networks.

arxiv情報

著者 Hyunwoo Oh
発行日 2025-05-12 16:25:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, hep-lat, nucl-th パーマリンク