Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators

要約

機械学習力フィールド(MLFF)は、分子動力学(MD)シミュレーションのためのABインニチオ法の魅力的な代替手段です。
ただし、不安定なシミュレーションを作成し、より長いタイムスケールで発生する現象をモデル化する能力を制限し、推定された観測可能性の品質を損なうことができます。
これらの課題に対処するために、安定したボルツマン推定器(安定)トレーニングを提示します。これは、参照量子力学計算とシステム観測可能性から共同監督を活用するマルチモーダルトレーニング手順です。
安定したトレーニングは、不安定な領域を模索するために多くのMDシミュレーションを並行して繰り返し実行し、参照が観察可能な監督による不安定性を修正します。
Boltzmann推定器を使用したMDシミュレーションを通じて、MDシミュレーションを通じて効率的なエンドツーエンドの自動分化を実現します。これは、より広いクラスの確率的アルゴリズムへの暗黙的な分化技術の一般化です。
積極的な学習に基づいた既存の手法とは異なり、私たちのアプローチでは、不安定性を修正するために追加のABインニチオエネルギーと力の計算を必要としません。
3つの最新のMLFFアーキテクチャを使用して、有機分子、テトラペプチド、および凝縮相システムを越えた方法論を実証します。
安定した訓練を受けたモデルは、シミュレーションの安定性、データ効率、および参照観測可能性との一致の大幅な改善を実現します。
シミュレーションタイムステップを減らすことで、安定性の改善は一致することはできません。
したがって、安定したトレーニングにより、より大きなタイムステップが効果的になります。
第一原理計算とともに観測可能性をトレーニングプロセスに組み込むことにより、安定したトレーニングは、MLFFアーキテクチャとシステム全体に適用される一般的な半経験的なフレームワークと見なすことができます。
これにより、特に大規模な参照データセットがない場合、安定した正確なMLFFをトレーニングするための強力なツールになります。
当社のコードは、https://github.com/ask-berkeley/stable-trainingで入手できます。

要約(オリジナル)

Machine learning force fields (MLFFs) are an attractive alternative to ab-initio methods for molecular dynamics (MD) simulations. However, they can produce unstable simulations, limiting their ability to model phenomena occurring over longer timescales and compromising the quality of estimated observables. To address these challenges, we present Stability-Aware Boltzmann Estimator (StABlE) Training, a multi-modal training procedure which leverages joint supervision from reference quantum-mechanical calculations and system observables. StABlE Training iteratively runs many MD simulations in parallel to seek out unstable regions, and corrects the instabilities via supervision with a reference observable. We achieve efficient end-to-end automatic differentiation through MD simulations using our Boltzmann Estimator, a generalization of implicit differentiation techniques to a broader class of stochastic algorithms. Unlike existing techniques based on active learning, our approach requires no additional ab-initio energy and forces calculations to correct instabilities. We demonstrate our methodology across organic molecules, tetrapeptides, and condensed phase systems, using three modern MLFF architectures. StABlE-trained models achieve significant improvements in simulation stability, data efficiency, and agreement with reference observables. The stability improvements cannot be matched by reducing the simulation timestep; thus, StABlE Training effectively allows for larger timesteps. By incorporating observables into the training process alongside first-principles calculations, StABlE Training can be viewed as a general semi-empirical framework applicable across MLFF architectures and systems. This makes it a powerful tool for training stable and accurate MLFFs, particularly in the absence of large reference datasets. Our code is available at https://github.com/ASK-Berkeley/StABlE-Training.

arxiv情報

著者 Sanjeev Raja,Ishan Amin,Fabian Pedregosa,Aditi S. Krishnapriyan
発行日 2025-02-25 18:52:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, physics.chem-ph, physics.comp-ph パーマリンク