Machine learning force-field model for kinetic Monte Carlo simulations of itinerant Ising magnets

要約

遍歴電子イジング系の大規模動的モンテカルロ (kMC) シミュレーションのためのスケーラブルな機械学習 (ML) フレームワークを紹介します。
このような巡回磁石におけるイジングスピン間の効果的な相互作用は伝導電子によって媒介されるため、局所的なスピン更新によるエネルギー変化の計算には電子構造問題を解く必要があります。
このような繰り返しの電子構造計算は、大規模システムでは圧倒的に法外な作業となる可能性があります。
局所性原理を仮定して、畳み込みニューラル ネットワーク (CNN) モデルは、有限近傍のイジング構成に基づく特定のスピン更新に関連する有効局所場と対応するエネルギー変化を直接予測するために開発されます。
CNN のカーネル サイズは一定に固定されているため、モデルは大きな格子の kMC シミュレーションに直接拡張できます。
私たちのアプローチは、第一原理分子動力学シミュレーションで広く使用されている ML 力場モデルを彷彿とさせます。
ML フレームワークを正方格子二重交換イジング モデルに適用すると、低温における強磁性ドメインの異常な粗大化が明らかになります。
私たちの研究は、離散動的変数を使用した同様の巡回システムの大規模モデリングにおける ML 手法の可能性を強調しています。

要約(オリジナル)

We present a scalable machine learning (ML) framework for large-scale kinetic Monte Carlo (kMC) simulations of itinerant electron Ising systems. As the effective interactions between Ising spins in such itinerant magnets are mediated by conducting electrons, the calculation of energy change due to a local spin update requires solving an electronic structure problem. Such repeated electronic structure calculations could be overwhelmingly prohibitive for large systems. Assuming the locality principle, a convolutional neural network (CNN) model is developed to directly predict the effective local field and the corresponding energy change associated with a given spin update based on Ising configuration in a finite neighborhood. As the kernel size of the CNN is fixed at a constant, the model can be directly scalable to kMC simulations of large lattices. Our approach is reminiscent of the ML force-field models widely used in first-principles molecular dynamics simulations. Applying our ML framework to a square-lattice double-exchange Ising model, we uncover unusual coarsening of ferromagnetic domains at low temperatures. Our work highlights the potential of ML methods for large-scale modeling of similar itinerant systems with discrete dynamical variables.

arxiv情報

著者 Alexa Tyberg,Yunhao Fan,Gia-Wei Chern
発行日 2024-11-29 15:35:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.stat-mech, cond-mat.str-el, cs.LG パーマリンク