要約
最小限のニューラルネットワークが、2次元ISINGモデルで繰り込みグループ(RG)の粗栽培手順をどのように反転させ、粗粒状態から微視的な構成を効果的に「夢見る」ことができるかを探ります。
このタスクは、構成のレベルでは、確率的にアプローチされ、機械学習モデルが顕微鏡入力に依存せずにスケール不変の分布を再構築できるようにします。
わずか3つのトレーニング可能なパラメーターを持つニューラルネットワークでさえ、磁気感受性、熱容量、バインダー比などの観測可能性のスケーリング挙動を再現して、重要な構成の生成を学ぶことができることを実証します。
生成された構成の実地域の繰り込みグループ分析により、モデルが不変性をスケーリングするだけでなく、RG変換の非自明な固有値を再現することが確認されます。
驚くべきことに、複数のレイヤーを導入することでネットワークの複雑さを高めることは、大きな利益をもたらさないことがわかります。
これらの発見は、フラクタル構造を生成するものと同様の単純なローカルルールが、重要な現象の普遍性をコードし、物理学における統計アンサンブルの効率的な生成モデルへの扉を開くのに十分であることを示唆しています。
要約(オリジナル)
We explore how minimal neural networks can invert the renormalization group (RG) coarse-graining procedure in the two-dimensional Ising model, effectively ‘dreaming up’ microscopic configurations from coarse-grained states. This task-formally impossible at the level of configurations-can be approached probabilistically, allowing machine learning models to reconstruct scale-invariant distributions without relying on microscopic input. We demonstrate that even neural networks with as few as three trainable parameters can learn to generate critical configurations, reproducing the scaling behavior of observables such as magnetic susceptibility, heat capacity, and Binder ratios. A real-space renormalization group analysis of the generated configurations confirms that the models capture not only scale invariance but also reproduce nontrivial eigenvalues of the RG transformation. Surprisingly, we find that increasing network complexity by introducing multiple layers offers no significant benefit. These findings suggest that simple local rules, akin to those generating fractal structures, are sufficient to encode the universality of critical phenomena, opening the door to efficient generative models of statistical ensembles in physics.
arxiv情報
著者 | Adam Rançon,Ulysse Rançon,Tomislav Ivek,Ivan Balog |
発行日 | 2025-06-04 14:46:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google