要約
機械学習力場 (MLFF) は、分子動力学 (MD) シミュレーションの非経験的手法に代わる魅力的な代替手段です。
ただし、不安定なシミュレーションが生成される可能性があり、より長いタイムスケールで発生する現象をモデル化する能力が制限され、推定される観測量の品質が損なわれます。
これらの課題に対処するために、参照量子力学計算とシステム観測量からの共同監視を活用するマルチモーダル トレーニング手順である、安定性を考慮したボルツマン推定器 (StABlE) トレーニングを紹介します。
StABlE Training は、多くの MD シミュレーションを並行して繰り返し実行して不安定な領域を探し出し、参照観測値による監視を通じて不安定性を修正します。
当社は、暗黙的な微分手法をより広範なクラスの確率的アルゴリズムに一般化したボルツマン推定器を使用した MD シミュレーションを通じて、効率的なエンドツーエンドの自動微分を実現します。
アクティブラーニングに基づく既存の手法とは異なり、私たちのアプローチは追加の非経験的エネルギーを必要とせず、不安定性を修正するために計算を強制します。
私たちは、3 つの最新の MLFF アーキテクチャを使用して、有機分子、テトラペプチド、凝縮相システムにわたる方法論を実証します。
StABlE でトレーニングされたモデルは、シミュレーションの安定性、データ効率、参照観測値との一致において大幅な改善を達成します。
第一原理計算とともにオブザーバブルをトレーニング プロセスに組み込むことにより、StABlE トレーニングは、MLFF アーキテクチャおよびシステム全体に適用できる一般的な半経験的フレームワークとみなすことができます。
これにより、特に大規模な参照データセットがない場合に、安定した正確な MLFF をトレーニングするための強力なツールになります。
要約(オリジナル)
Machine learning force fields (MLFFs) are an attractive alternative to ab-initio methods for molecular dynamics (MD) simulations. However, they can produce unstable simulations, limiting their ability to model phenomena occurring over longer timescales and compromising the quality of estimated observables. To address these challenges, we present Stability-Aware Boltzmann Estimator (StABlE) Training, a multi-modal training procedure which leverages joint supervision from reference quantum-mechanical calculations and system observables. StABlE Training iteratively runs many MD simulations in parallel to seek out unstable regions, and corrects the instabilities via supervision with a reference observable. We achieve efficient end-to-end automatic differentiation through MD simulations using our Boltzmann Estimator, a generalization of implicit differentiation techniques to a broader class of stochastic algorithms. Unlike existing techniques based on active learning, our approach requires no additional ab-initio energy and forces calculations to correct instabilities. We demonstrate our methodology across organic molecules, tetrapeptides, and condensed phase systems, using three modern MLFF architectures. StABlE-trained models achieve significant improvements in simulation stability, data efficiency, and agreement with reference observables. By incorporating observables into the training process alongside first-principles calculations, StABlE Training can be viewed as a general semi-empirical framework applicable across MLFF architectures and systems. This makes it a powerful tool for training stable and accurate MLFFs, particularly in the absence of large reference datasets.
arxiv情報
著者 | Sanjeev Raja,Ishan Amin,Fabian Pedregosa,Aditi S. Krishnapriyan |
発行日 | 2024-10-10 17:58:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google