FreeCG: Free the Design Space of Clebsch-Gordan Transform for machine learning force field

要約

クレブシュ ゴルダン変換 (CG 変換) は、多体相互作用を効果的にエンコードします。
原子環境の描写においてその精度が高いことが多くの研究で証明されていますが、これには高度な計算能力が必要です。
この課題の計算負荷は、CG 変換層の設計スペースを制限する置換等分散の必要性により軽減するのが困難です。
順列不変入力に CG 変換層を実装すると、対称性に影響を与えることなく、この層の設計を完全に自由にできることがわかります。
この前提をさらに発展させて、私たちのアイデアは、実際のエッジ情報から生成された順列不変の抽象エッジ上で動作する CG 変換層を作成することです。
スパース パス、抽象的なエッジ シャッフル、およびアテンション エンハンサーを使用したグループ CG 変換を導入して、強力で効率的な CG 変換レイヤーを形成します。
FreeCG として知られる私たちの方法は、MD17、rMD17、MD22 の力予測、および QM9 データセットの特性予測において最先端 (SoTA) の結果を達成し、顕著な強化をもたらします。
これは、将来の幾何学的ニューラル ネットワーク設計において効率的で表現力豊かな CG 変換を実行するための新しいパラダイムを導入します。

要約(オリジナル)

The Clebsch-Gordan Transform (CG transform) effectively encodes many-body interactions. Many studies have proven its accuracy in depicting atomic environments, although this comes with high computational needs. The computational burden of this challenge is hard to reduce due to the need for permutation equivariance, which limits the design space of the CG transform layer. We show that, implementing the CG transform layer on permutation-invariant inputs allows complete freedom in the design of this layer without affecting symmetry. Developing further on this premise, our idea is to create a CG transform layer that operates on permutation-invariant abstract edges generated from real edge information. We bring in group CG transform with sparse path, abstract edges shuffling, and attention enhancer to form a powerful and efficient CG transform layer. Our method, known as FreeCG, achieves State-of-The-Art (SoTA) results in force prediction for MD17, rMD17, MD22, and property prediction in QM9 datasets with notable enhancement. It introduces a novel paradigm for carrying out efficient and expressive CG transform in future geometric neural network designs.

arxiv情報

著者 Shihao Shao,Haoran Geng,Qinghua Cui
発行日 2024-07-02 13:40:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.chem-ph, q-bio.BM, quant-ph パーマリンク