要約
高分子シミュレーションの精度と効率を両立させることは難しい課題である。機械学習(ML)力場は、第一原理法の精度と経験的力場の効率の両方を達成するために開発されてきた。しかし、既存のML力場は、通常、1分子設定に限定されており、そのシミュレーションは十分なロバスト性を持っていない。本論文では、一般化可能な等変量トランスフォーマーを用いたポリマー力場の新しいフレームワークであるPolyGETを紹介する。PolyGETは、Equivariant Transformersと呼ばれるディープラーニングモデルを用いて、原子間の複雑な量子相互作用を捉え、様々なポリマーファミリーを汎化するように設計されている。我々は、力とエネルギーを共同で最適化する既存の手法とは異なる、力の最適化のみに焦点を当てた新しい学習パラダイムを提案する。この単純な力中心の目的関数は、エネルギーと力の間の競合する目的を回避し、それにより、異なるポリマーファミリーの統一された力場MLモデルの学習を可能にする。PolyGETを24種類のポリマーからなる大規模なデータセットで評価した結果、力の精度とロバストなMDシミュレーションにおいて、最先端の性能が実証されました。さらに、PolyGETは、参照される第一原理DFT法と高い忠実度で大規模ポリマーをシミュレーションすることができ、同時に、未知のポリマーにも一般化することができます。
要約(オリジナル)
Polymer simulation with both accuracy and efficiency is a challenging task. Machine learning (ML) forcefields have been developed to achieve both the accuracy of ab initio methods and the efficiency of empirical force fields. However, existing ML force fields are usually limited to single-molecule settings, and their simulations are not robust enough. In this paper, we present PolyGET, a new framework for Polymer Forcefields with Generalizable Equivariant Transformers. PolyGET is designed to capture complex quantum interactions between atoms and generalize across various polymer families, using a deep learning model called Equivariant Transformers. We propose a new training paradigm that focuses exclusively on optimizing forces, which is different from existing methods that jointly optimize forces and energy. This simple force-centric objective function avoids competing objectives between energy and forces, thereby allowing for learning a unified forcefield ML model over different polymer families. We evaluated PolyGET on a large-scale dataset of 24 distinct polymer types and demonstrated state-of-the-art performance in force accuracy and robust MD simulations. Furthermore, PolyGET can simulate large polymers with high fidelity to the reference ab initio DFT method while being able to generalize to unseen polymers.
arxiv情報
著者 | Rui Feng,Huan Tran,Aubrey Toland,Binghong Chen,Qi Zhu,Rampi Ramprasad,Chao Zhang |
発行日 | 2023-09-01 17:01:04+00:00 |
arxivサイト | arxiv_id(pdf) |