要約
機械学習 (ML) の原子間ポテンシャル (IP) は、トレーニング対象の第一原理データに固有のノイズ レベルに近い精度を達成できますが、高度な計算を構築するためにその複雑さの増加が厳密に必要であるかどうかはまだわかっていません。
高品質のIP。
この研究では、スプラインベースの MEAM (s-MEAM) の可能性のシンプルさとニューラル ネットワーク (NN) アーキテクチャの柔軟性を融合する新しい MLIP フレームワークを紹介します。
スプラインベースのニューラル ネットワーク ポテンシャル (s-NNP) と呼ばれる提案されたフレームワークは、計算効率の高い方法で複雑なデータセットを記述するために使用できる従来の NNP の簡略化されたバージョンです。
このフレームワークを使用して従来の IP と ML IP の間の境界を調査する方法を示し、主要なアーキテクチャ変更の利点を強調します。
さらに、アトミック環境をエンコードするためにスプライン フィルターを使用すると、容易に解釈できる埋め込み層が得られ、NN への変更と組み合わせることで、予想される物理的動作を組み込み、全体の解釈可能性が向上することを示します。
最後に、スプライン フィルターの柔軟性をテストし、クロスシステム分析の実行を開始するための便利な基準点を提供するために複数の化学システム間でスプライン フィルターを共有できることを観察します。
要約(オリジナル)
While machine learning (ML) interatomic potentials (IPs) are able to achieve accuracies nearing the level of noise inherent in the first-principles data to which they are trained, it remains to be shown if their increased complexities are strictly necessary for constructing high-quality IPs. In this work, we introduce a new MLIP framework which blends the simplicity of spline-based MEAM (s-MEAM) potentials with the flexibility of a neural network (NN) architecture. The proposed framework, which we call the spline-based neural network potential (s-NNP), is a simplified version of the traditional NNP that can be used to describe complex datasets in a computationally efficient manner. We demonstrate how this framework can be used to probe the boundary between classical and ML IPs, highlighting the benefits of key architectural changes. Furthermore, we show that using spline filters for encoding atomic environments results in a readily interpreted embedding layer which can be coupled with modifications to the NN to incorporate expected physical behaviors and improve overall interpretability. Finally, we test the flexibility of the spline filters, observing that they can be shared across multiple chemical systems in order to provide a convenient reference point from which to begin performing cross-system analyses.
arxiv情報
著者 | Joshua A. Vita,Dallas R. Trinkle |
発行日 | 2023-10-04 15:42:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google