Self-Consistency Training for Hamiltonian Prediction

要約

ハミルトニアン予測は、分子科学の問題を解決するために機械学習を活用する多用途の定式化です。
しかし、その適用性は、トレーニング用のラベル付きデータが不十分であるため制限されています。
この研究では、ハミルトニアン予測には自己無撞着原則があることを強調し、これに基づいて、ラベル付きデータを必要としない正確なトレーニング方法を提案します。
このメリットは、データ不足の問題に対処し、このタスクを他の特性予測定式化とは独特の利点で区別します。(1) 自己一貫性トレーニングにより、大量のラベルなしデータでモデルをトレーニングできるため、一般化が大幅に強化されます。
(2) 自己無撞着トレーニングは、一連の分子構造にわたる DFT 計算の償却であるため、教師ありトレーニングの DFT でデータにラベルを付けるよりも効率的です。
データが不足し、分散されていないシナリオでのより良い一般化と、償却による効率の向上を経験的に示しています。
これらの利点により、ハミルトニアン予測の適用可能性がさらに拡大されます。

要約(オリジナル)

Hamiltonian prediction is a versatile formulation to leverage machine learning for solving molecular science problems. Yet, its applicability is limited by insufficient labeled data for training. In this work, we highlight that Hamiltonian prediction possesses a self-consistency principle, based on which we propose an exact training method that does not require labeled data. This merit addresses the data scarcity difficulty, and distinguishes the task from other property prediction formulations with unique benefits: (1) self-consistency training enables the model to be trained on a large amount of unlabeled data, hence substantially enhances generalization; (2) self-consistency training is more efficient than labeling data with DFT for supervised training, since it is an amortization of DFT calculation over a set of molecular structures. We empirically demonstrate the better generalization in data-scarce and out-of-distribution scenarios, and the better efficiency from the amortization. These benefits push forward the applicability of Hamiltonian prediction to an ever larger scale.

arxiv情報

著者 He Zhang,Chang Liu,Zun Wang,Xinran Wei,Siyuan Liu,Nanning Zheng,Bin Shao,Tie-Yan Liu
発行日 2024-03-14 16:52:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク