Transfer learning for atomistic simulations using GNNs and kernel mean embeddings

要約

機械学習法を用いて学習された原子間ポテンシャルは、原子論的シミュレーションへの応用に成功している。しかし、ディープラーニングパイプラインはデータ量が多いことで有名であり、一方、参照計算の生成には計算負荷がかかる。この困難を克服するために、我々は、カーネル平均埋め込みとともに、化学的環境を記述するグラフニューラルネットワーク(GNN)の能力を活用する転移学習アルゴリズムを提案する。OC20データセットで事前に訓練したGNNから特徴マップを抽出し、それを用いて触媒プロセスのシステム固有のデータセットからポテンシャルエネルギー表面を学習する。本手法は、化学種の情報を組み込んだ柔軟なカーネル関数によってさらに強化され、性能と解釈可能性が向上している。我々は、複雑さを増す一連の現実的なデータセットで我々のアプローチをテストし、優れた一般化と移植性の性能を示し、GNNやリッジ回帰のみに依存する手法や、同様の微調整アプローチを改善した。コードはコミュニティ(https://github.com/IsakFalk/atomistic_transfer_mekrr)に公開している。

要約(オリジナル)

Interatomic potentials learned using machine learning methods have been successfully applied to atomistic simulations. However, deep learning pipelines are notoriously data-hungry, while generating reference calculations is computationally demanding. To overcome this difficulty, we propose a transfer learning algorithm that leverages the ability of graph neural networks (GNNs) in describing chemical environments, together with kernel mean embeddings. We extract a feature map from GNNs pre-trained on the OC20 dataset and use it to learn the potential energy surface from system-specific datasets of catalytic processes. Our method is further enhanced by a flexible kernel function that incorporates chemical species information, resulting in improved performance and interpretability. We test our approach on a series of realistic datasets of increasing complexity, showing excellent generalization and transferability performance, and improving on methods that rely on GNNs or ridge regression alone, as well as similar fine-tuning approaches. We make the code available to the community at https://github.com/IsakFalk/atomistic_transfer_mekrr.

arxiv情報

著者 John Falk,Luigi Bonati,Pietro Novelli,Michele Parrinello,Massimiliano Pontil
発行日 2023-07-03 07:07:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, physics.chem-ph パーマリンク