Convergence of stochastic gradient descent on parameterized sphere with applications to variational Monte Carlo simulation

要約

正規化定数までニューラル ネットワークによってパラメーター化された高次元球で確率的勾配降下 (SGD) 型アルゴリズムを分析します。
教師あり学習の設定のための新しいアルゴリズムを提供し、その収束を理論的および数値的に示します。
また、量子物理学で広く使用されている変分モンテカルロ (VMC) 法に対応する教師なし設定の収束の最初の証明も提供します。

要約(オリジナル)

We analyze stochastic gradient descent (SGD) type algorithms on a high-dimensional sphere which is parameterized by a neural network up to a normalization constant. We provide a new algorithm for the setting of supervised learning and show its convergence both theoretically and numerically. We also provide the first proof of convergence for the unsupervised setting, which corresponds to the widely used variational Monte Carlo (VMC) method in quantum physics.

arxiv情報

著者 Nilin Abrahamsen,Zhiyan Ding,Gil Goldshlager,Lin Lin
発行日 2023-03-24 16:06:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.comp-ph パーマリンク