PhAST: Physics-Aware, Scalable, and Task-specific GNNs for Accelerated Catalyst Design

要約

気候危機を緩和するには、低炭素エネルギーへの急速な移行が必要です。
触媒材料は、再生可能エネルギー貯蔵や電気燃料合成など、この移行の鍵となる多くの工業プロセスに関与する電気化学反応において重要な役割を果たします。
このような活動に費やされるエネルギーを削減するには、電気化学反応を駆動するためのより効率的な触媒を迅速に発見する必要があります。
機械学習 (ML) は、大量のデータから材料特性を効率的にモデル化し、電極触媒の設計を加速する可能性を秘めています。
Open Catalyst プロジェクト OC20 データセットは、その目的のために構築されました。
ただし、OC20 でトレーニングされた ML モデルは、まだ実際のアプリケーションに十分なスケーラビリティや精度がありません。
このペーパーでは、計算効率と精度の両方を向上させる、ほとんどのアーキテクチャに適用できるタスク固有のイノベーションを提案します。
これには、(1) グラフ作成ステップ、(2) 原子表現、(3) エネルギー予測ヘッド、(4) 力予測ヘッドの改善が含まれます。
私たちは、PhAST と呼ばれるこれらの貢献について説明し、複数のアーキテクチャ上で徹底的に評価します。
全体として、PhAST はエネルギー MAE を 4 ~ 42$\%$ 改善し、ターゲットのタスク/モデルに応じて計算時間を 3 ~ 8$\times$ に分割します。
PhAST は CPU トレーニングも可能にし、高度に並列化された設定で 40$\times$ の高速化につながります。
Python パッケージ: \url{https://phast.readthedocs.io}。

要約(オリジナル)

Mitigating the climate crisis requires a rapid transition towards lower-carbon energy. Catalyst materials play a crucial role in the electrochemical reactions involved in numerous industrial processes key to this transition, such as renewable energy storage and electrofuel synthesis. To reduce the energy spent on such activities, we must quickly discover more efficient catalysts to drive electrochemical reactions. Machine learning (ML) holds the potential to efficiently model materials properties from large amounts of data, accelerating electrocatalyst design. The Open Catalyst Project OC20 dataset was constructed to that end. However, ML models trained on OC20 are still neither scalable nor accurate enough for practical applications. In this paper, we propose task-specific innovations applicable to most architectures, enhancing both computational efficiency and accuracy. This includes improvements in (1) the graph creation step, (2) atom representations, (3) the energy prediction head, and (4) the force prediction head. We describe these contributions, referred to as PhAST, and evaluate them thoroughly on multiple architectures. Overall, PhAST improves energy MAE by 4 to 42$\%$ while dividing compute time by 3 to 8$\times$ depending on the targeted task/model. PhAST also enables CPU training, leading to 40$\times$ speedups in highly parallelized settings. Python package: \url{https://phast.readthedocs.io}.

arxiv情報

著者 Alexandre Duval,Victor Schmidt,Santiago Miret,Yoshua Bengio,Alex Hernández-García,David Rolnick
発行日 2024-03-11 15:50:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.comp-ph パーマリンク