Stability-Aware Training of Neural Network Interatomic Potentials with Differentiable Boltzmann Estimators

要約

ニューラル ネットワーク原子間ポテンシャル (NNIP) は、分子動力学 (MD) シミュレーションの非経験的手法に代わる魅力的な代替手段です。
ただし、非物理的な状態をサンプリングする不安定なシミュレーションが生成される可能性があるため、より長いタイムスケールで発生する現象をモデル化する場合の有用性が制限されます。
これらの課題に対処するために、我々は安定性を考慮したボルツマン推定器 (StABlE) トレーニングを提案します。これは、量子力学のエネルギーと力からの従来の教師ありトレーニングと参照系の観測量を組み合わせて、安定した正確な NNIP を生成するマルチモーダル トレーニング手順です。
StABlE Training は、MD シミュレーションを繰り返し実行して不安定な領域を探し出し、参照観測値による監視を通じて不安定性を修正します。
このトレーニング手順は、ボルツマン推定器によって可能になります。これにより、ニューラル ネットワークをシステムの観測値にトレーニングするために必要な勾配の効率的な計算が可能になり、グローバルとローカルの両方の不安定性を検出できます。
3 つの最新の NNIP アーキテクチャを使用しながら、有機分子、テトラペプチド、凝縮相システムにわたる方法論を実証します。
3 つのケースすべてにおいて、StABlE でトレーニングされたモデルは、シミュレーションの安定性と構造的および動的観測値の回復において大幅な改善を達成しました。
場合によっては、StABlE でトレーニングされたモデルは、50 倍大きいデータセットでトレーニングされた従来のモデルよりも優れたパフォーマンスを発揮します。
StABlE Training は、NNIP アーキテクチャおよびシステム全体に適用できる一般的なフレームワークとして、特に大規模な参照データセットがない場合に、安定して正確な NNIP をトレーニングするための強力なツールです。

要約(オリジナル)

Neural network interatomic potentials (NNIPs) are an attractive alternative to ab-initio methods for molecular dynamics (MD) simulations. However, they can produce unstable simulations which sample unphysical states, limiting their usefulness for modeling phenomena occurring over longer timescales. To address these challenges, we present Stability-Aware Boltzmann Estimator (StABlE) Training, a multi-modal training procedure which combines conventional supervised training from quantum-mechanical energies and forces with reference system observables, to produce stable and accurate NNIPs. StABlE Training iteratively runs MD simulations to seek out unstable regions, and corrects the instabilities via supervision with a reference observable. The training procedure is enabled by the Boltzmann Estimator, which allows efficient computation of gradients required to train neural networks to system observables, and can detect both global and local instabilities. We demonstrate our methodology across organic molecules, tetrapeptides, and condensed phase systems, along with using three modern NNIP architectures. In all three cases, StABlE-trained models achieve significant improvements in simulation stability and recovery of structural and dynamic observables. In some cases, StABlE-trained models outperform conventional models trained on datasets 50 times larger. As a general framework applicable across NNIP architectures and systems, StABlE Training is a powerful tool for training stable and accurate NNIPs, particularly in the absence of large reference datasets.

arxiv情報

著者 Sanjeev Raja,Ishan Amin,Fabian Pedregosa,Aditi S. Krishnapriyan
発行日 2024-02-21 18:12:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, physics.chem-ph, physics.comp-ph パーマリンク