要約
ニューラル ネットワーク (NN) は、分子動力学の精度を向上させるための有望なモデルであり、新しい応用分野を開く可能性があります。
通常、トレーニングされたボトムアップの原子論的 NN ポテンシャル モデルは第一原理精度に達することができますが、粗視化された陰的溶媒 NN ポテンシャルは古典的な連続体溶媒モデルを上回ります。
ただし、コストのかかる正確な参照データの生成と、一般的なボトムアップ トレーニングのデータの非効率性という制限を克服するには、多くのソースからのデータを効率的に組み込むことが必要です。
この論文では、カスタマイズ可能なトレーニング ルーチンと高度なトレーニング アルゴリズムを通じて、洗練された NN ポテンシャル モデルを学習するためのフレームワーク chemtrain を紹介します。
これらのルーチンは、複数のトップダウン アルゴリズムとボトムアップ アルゴリズムを組み合わせて、実験データとシミュレーション データの両方を組み込んだり、より低コストのアルゴリズムでポテンシャルを事前に訓練したりすることができます。
chemtrain は、カスタム ルーチンの作成を簡素化するオブジェクト指向の高レベル インターフェイスを提供します。
下位レベルでは、chemtrain は JAX に依存して勾配を計算し、利用可能なリソースを使用するように計算をスケールします。
チタンの全原子モデルとアラニンジペプチドの粗粒陰的溶媒モデルをパラメータ化する例で、複数のアルゴリズムを組み合わせる簡単さと重要性を示します。
要約(オリジナル)
Neural Networks (NNs) are promising models for refining the accuracy of molecular dynamics, potentially opening up new fields of application. Typically trained bottom-up, atomistic NN potential models can reach first-principle accuracy, while coarse-grained implicit solvent NN potentials surpass classical continuum solvent models. However, overcoming the limitations of costly generation of accurate reference data and data inefficiency of common bottom-up training demands efficient incorporation of data from many sources. This paper introduces the framework chemtrain to learn sophisticated NN potential models through customizable training routines and advanced training algorithms. These routines can combine multiple top-down and bottom-up algorithms, e.g., to incorporate both experimental and simulation data or pre-train potentials with less costly algorithms. chemtrain provides an object-oriented high-level interface to simplify the creation of custom routines. On the lower level, chemtrain relies on JAX to compute gradients and scale the computations to use available resources. We demonstrate the simplicity and importance of combining multiple algorithms in the examples of parametrizing an all-atomistic model of titanium and a coarse-grained implicit solvent model of alanine dipeptide.
arxiv情報
著者 | Paul Fuchs,Stephan Thaler,Sebastien Röcken,Julija Zavadlav |
発行日 | 2024-08-28 15:14:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google