要約
分子データからポテンシャル エネルギー面を学習するニューラル アーキテクチャは、近年急速に改善されています。
この成功の主な要因は、Message Passing Neural Network (MPNN) パラダイムです。
システム サイズに合わせた適切なスケーリングは、メッセージの空間距離の制限に部分的に依存しています。
この局所性への焦点は有用な誘導バイアスですが、静電気やファンデルワールス力などの長距離相互作用の学習も妨げます。
この欠点に対処するために、Ewald メッセージ パッシングを提案します。これは、距離ではなく周波数のカットオフを介して相互作用を制限する非局所フーリエ空間スキームであり、Ewald 加算法で理論的に十分な根拠があります。
計算コストが低く、他のアーキテクチャの詳細にとらわれないため、既存の MPNN アーキテクチャを強化するものとして機能します。
4 つのベースライン モデルと、多様な周期的 (OC20) および非周期的構造 (OE62) を含む 2 つのデータセットを使用してアプローチをテストします。
すべてのモデルとデータセットでエネルギー平均絶対誤差の大幅な改善が見られ、OC20 で平均 10%、OE62 で 16% です。
私たちの分析は、グラウンド トゥルース エネルギーへの長距離寄与が大きい構造に対するこれらの改善の特大の影響を示しています。
要約(オリジナル)
Neural architectures that learn potential energy surfaces from molecular data have undergone fast improvement in recent years. A key driver of this success is the Message Passing Neural Network (MPNN) paradigm. Its favorable scaling with system size partly relies upon a spatial distance limit on messages. While this focus on locality is a useful inductive bias, it also impedes the learning of long-range interactions such as electrostatics and van der Waals forces. To address this drawback, we propose Ewald message passing: a nonlocal Fourier space scheme which limits interactions via a cutoff on frequency instead of distance, and is theoretically well-founded in the Ewald summation method. It can serve as an augmentation on top of existing MPNN architectures as it is computationally cheap and agnostic to other architectural details. We test the approach with four baseline models and two datasets containing diverse periodic (OC20) and aperiodic structures (OE62). We observe robust improvements in energy mean absolute errors across all models and datasets, averaging 10% on OC20 and 16% on OE62. Our analysis shows an outsize impact of these improvements on structures with high long-range contributions to the ground truth energy.
arxiv情報
著者 | Arthur Kosmala,Johannes Gasteiger,Nicholas Gao,Stephan Günnemann |
発行日 | 2023-03-08 18:41:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google