All-in-one foundational models learning across quantum chemical levels

要約

機械学習 (ML) の可能性は通常、単一の量子化学 (QC) レベルを対象としていますが、マルチ忠実度学習用に開発された ML モデルが基礎モデルにスケーラブルなソリューションを提供することは示されていません。
ここでは、任意の数の QC レベルを学習できるマルチモーダル学習に基づくオールインワン (AIO) ANI モデル アーキテクチャを紹介します。
当社のオールインワン学習アプローチは、転移学習に代わる、より一般的で使いやすい方法を提供します。
これを使用して、有機分子のダブルゼータ基底セットを備えた半経験的な GFN2-xTB および DFT に匹敵する一般化機能を備えた AIO-ANI-UIP 基礎モデルをトレーニングします。
AIO-ANI モデルが、半経験から密度汎関数理論、結合クラスターに至るまで、さまざまな QC レベルにわたって学習できることを示します。
また、AIO モデルを使用して、AIO-ANI-UIP と比較して精度と堅牢性が向上した {\Delta} 学習に基づく基礎モデル {\Delta}-AIO-ANI を設計します。
コードと基本モデルは https://github.com/dralgroup/aio-ani で入手できます。
これらは、ユニバーサルで更新可能な AI 拡張 QM (UAIQM) ライブラリに統合され、MLatom パッケージで利用できるようになり、XACS クラウド コンピューティング プラットフォームでオンラインで使用できるようになります (https://github.com/dralgroup/mlatom を参照)。
更新用)。

要約(オリジナル)

Machine learning (ML) potentials typically target a single quantum chemical (QC) level while the ML models developed for multi-fidelity learning have not been shown to provide scalable solutions for foundational models. Here we introduce the all-in-one (AIO) ANI model architecture based on multimodal learning which can learn an arbitrary number of QC levels. Our all-in-one learning approach offers a more general and easier-to-use alternative to transfer learning. We use it to train the AIO-ANI-UIP foundational model with the generalization capability comparable to semi-empirical GFN2-xTB and DFT with a double-zeta basis set for organic molecules. We show that the AIO-ANI model can learn across different QC levels ranging from semi-empirical to density functional theory to coupled cluster. We also use AIO models to design the foundational model {\Delta}-AIO-ANI based on {\Delta}-learning with increased accuracy and robustness compared to AIO-ANI-UIP. The code and the foundational models are available at https://github.com/dralgroup/aio-ani; they will be integrated into the universal and updatable AI-enhanced QM (UAIQM) library and made available in the MLatom package so that they can be used online at the XACS cloud computing platform (see https://github.com/dralgroup/mlatom for updates).

arxiv情報

著者 Yuxinxin Chen,Pavlo O. Dral
発行日 2024-09-18 14:29:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.chem-ph パーマリンク