Convergence of variational Monte Carlo simulation and scale-invariant pre-training

要約

電子構造問題に対するニューラル ネットワークの波動関数を最適化するために適用される変分モンテカルロ (VMC) 法の理論的な収束境界を提供します。
私たちは、エネルギー最小化フェーズと、エネルギー最小化の前に一般的に使用される教師あり事前トレーニングフェーズの両方を研究します。
エネルギー最小化フェーズでは、標準アルゴリズムは設計によりスケール不変であり、変更を加えずにこのアルゴリズムの収束の証明を提供します。
通常、事前トレーニング段階にはそのようなスケール不変性はありません。
我々は、事前トレーニング段階でスケール不変損失を使用することを提案し、それが事前トレーニングの高速化につながることを経験的に実証します。

要約(オリジナル)

We provide theoretical convergence bounds for the variational Monte Carlo (VMC) method as applied to optimize neural network wave functions for the electronic structure problem. We study both the energy minimization phase and the supervised pre-training phase that is commonly used prior to energy minimization. For the energy minimization phase, the standard algorithm is scale-invariant by design, and we provide a proof of convergence for this algorithm without modifications. The pre-training stage typically does not feature such scale-invariance. We propose using a scale-invariant loss for the pretraining phase and demonstrate empirically that it leads to faster pre-training.

arxiv情報

著者 Nilin Abrahamsen,Zhiyan Ding,Gil Goldshlager,Lin Lin
発行日 2024-02-21 18:02:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.comp-ph パーマリンク