Transfer learning for atomistic simulations using GNNs and kernel mean embeddings

要約

機械学習法を用いて学習された原子間ポテンシャルは、原子論的シミュレーションにうまく適用されています。しかし、深層学習パイプラインはデータ量が多いことで有名であり、一方、参照計算の生成は計算量が多いという問題がある。この困難を克服するために、我々は、カーネル平均埋め込みとともに、化学環境を記述するグラフニューラルネットワーク(GNN)の能力を活用する転移学習アルゴリズムを提案する。OC20データセットで事前学習したGNNから特徴マップを抽出し、それを用いて触媒プロセスのシステム固有のデータセットからポテンシャルエネルギー曲面を学習する。本手法は、化学種情報を組み込んだ柔軟なカーネル関数によってさらに強化され、性能と解釈可能性が向上している。複雑さを増す一連の現実的なデータセットで我々のアプローチをテストし、優れた一般化と移植性を示し、GNNやリッジ回帰のみに依存する手法や、同様の微調整のアプローチを改善することを示す。コードは、https://github.com/IsakFalk/atomistic_transfer_mekrr でコミュニティに公開しています。

要約(オリジナル)

Interatomic potentials learned using machine learning methods have been successfully applied to atomistic simulations. However, deep learning pipelines are notoriously data-hungry, while generating reference calculations is computationally demanding. To overcome this difficulty, we propose a transfer learning algorithm that leverages the ability of graph neural networks (GNNs) in describing chemical environments, together with kernel mean embeddings. We extract a feature map from GNNs pre-trained on the OC20 dataset and use it to learn the potential energy surface from system-specific datasets of catalytic processes. Our method is further enhanced by a flexible kernel function that incorporates chemical species information, resulting in improved performance and interpretability. We test our approach on a series of realistic datasets of increasing complexity, showing excellent generalization and transferability performance, and improving on methods that rely on GNNs or ridge regression alone, as well as similar fine-tuning approaches. We make the code available to the community at https://github.com/IsakFalk/atomistic_transfer_mekrr.

arxiv情報

著者 John Falk,Luigi Bonati,Pietro Novelli,Michele Parinello,Massimiliano Pontil
発行日 2023-06-02 14:58:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, physics.chem-ph パーマリンク