Multi-Lattice Sampling of Quantum Field Theories via Neural Operator-based Flows

要約

ボルツマン分布 $[d\phi] Z^{-1} e^{-S[\phi]}$ から離散体配置 $\phi$ をサンプリングする問題を考えます。ここで $S$ は格子離散化です
ある量子場の理論の連続ユークリッド作用 $\mathcal S$ の。
このような密度は、基礎となる関数密度 $[\mathcal D\phi(x)] \mathcal Z^{-1} e^{-\mathcal S[\phi(x)]}$ の近似として生じるため、次のようにフレーム化します。
オペレーターの学習のインスタンスとしてのタスク。
特に、時間依存演算子 $\mathcal V_t$ を近似することを提案します。その時間積分は、自由理論 $[\mathcal D\phi(x)] \mathcal Z_0^{-1} の関数分布間のマッピングを提供します。
e^{-\mathcal S_{0}[\phi(x)]}$ とターゲット理論 $[\mathcal D\phi(x)]\mathcal Z^{-1}e^{-\mathcal S
[\phi(x)]}$。
特定の格子が選択されるたびに、演算子 $\mathcal V_t$ を有限次元の時間依存ベクトル場 $V_t$ に離散化できます。これにより、選択された格子上の有限次元分布間の連続正規化フローが誘導されます。
この流れは、離散化された自由理論とターゲット理論 $[d\phi] Z_0^{-1} e^{-S_{0}[\phi]}$, $[d\phi] の間の微分写像になるように訓練できます。
Z^{-1}e^{-S[\phi]}$。
$\phi^4$ 理論に関する実験を実行して、そのような演算子ベースのフロー アーキテクチャがトレーニングされていない格子サイズにどの程度まで一般化するかを調査し、より小さい格子での事前トレーニングがターゲット格子のみをトレーニングする場合よりも高速化につながる可能性があることを示します。
サイズ。

要約(オリジナル)

We consider the problem of sampling discrete field configurations $\phi$ from the Boltzmann distribution $[d\phi] Z^{-1} e^{-S[\phi]}$, where $S$ is the lattice-discretization of the continuous Euclidean action $\mathcal S$ of some quantum field theory. Since such densities arise as the approximation of the underlying functional density $[\mathcal D\phi(x)] \mathcal Z^{-1} e^{-\mathcal S[\phi(x)]}$, we frame the task as an instance of operator learning. In particular, we propose to approximate a time-dependent operator $\mathcal V_t$ whose time integral provides a mapping between the functional distributions of the free theory $[\mathcal D\phi(x)] \mathcal Z_0^{-1} e^{-\mathcal S_{0}[\phi(x)]}$ and of the target theory $[\mathcal D\phi(x)]\mathcal Z^{-1}e^{-\mathcal S[\phi(x)]}$. Whenever a particular lattice is chosen, the operator $\mathcal V_t$ can be discretized to a finite dimensional, time-dependent vector field $V_t$ which in turn induces a continuous normalizing flow between finite dimensional distributions over the chosen lattice. This flow can then be trained to be a diffeormorphism between the discretized free and target theories $[d\phi] Z_0^{-1} e^{-S_{0}[\phi]}$, $[d\phi] Z^{-1}e^{-S[\phi]}$. We run experiments on the $\phi^4$-theory to explore to what extent such operator-based flow architectures generalize to lattice sizes they were not trained on and show that pretraining on smaller lattices can lead to speedup over training only a target lattice size.

arxiv情報

著者 Bálint Máté,François Fleuret
発行日 2024-01-17 14:17:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, hep-lat, stat.ML パーマリンク