要約
物理システムのダイナミクスを表現およびシミュレートする方法を学ぶことは、重要かつ困難な課題です。
既存の等変グラフ ニューラル ネットワーク (GNN) ベースの手法は、物理の対称性、\emph{e.g.}、平行移動、回転などをカプセル化しており、汎化能力の向上につながっています。
それにもかかわらず、彼らのタスクのフレームごとの定式化では、主に環境内の観察されていないダイナミクスによって引き起こされる非マルコフ特性が見落とされています。
この論文では、過去の期間の軌跡を使用して非マルコフ相互作用を回復することにより、時空間予測タスクとしてダイナミクス シミュレーションを再定式化します。
私たちは、目的を達成するために、時空間 GNN の等変バージョンである等変時空間アテンティブ グラフ ネットワーク (ESTAG) を提案します。
その中核として、履歴フレームから周期パターンを抽出する新しい等変離散フーリエ変換 (EDFT) を設計し、空間メッセージ パッシングを実現する等変空間モジュール (ESM) と、
一時的なメッセージを集約するためのフォワード アテンションおよび等変プーリング メカニズム。
分子レベル、タンパク質レベル、マクロレベルに対応する 3 つの実際のデータセットに基づいてモデルを評価します。
実験結果では、典型的な時空間 GNN および等変 GNN と比較した ESTAG の有効性が検証されています。
要約(オリジナル)
Learning to represent and simulate the dynamics of physical systems is a crucial yet challenging task. Existing equivariant Graph Neural Network (GNN) based methods have encapsulated the symmetry of physics, \emph{e.g.}, translations, rotations, etc, leading to better generalization ability. Nevertheless, their frame-to-frame formulation of the task overlooks the non-Markov property mainly incurred by unobserved dynamics in the environment. In this paper, we reformulate dynamics simulation as a spatio-temporal prediction task, by employing the trajectory in the past period to recover the Non-Markovian interactions. We propose Equivariant Spatio-Temporal Attentive Graph Networks (ESTAG), an equivariant version of spatio-temporal GNNs, to fulfill our purpose. At its core, we design a novel Equivariant Discrete Fourier Transform (EDFT) to extract periodic patterns from the history frames, and then construct an Equivariant Spatial Module (ESM) to accomplish spatial message passing, and an Equivariant Temporal Module (ETM) with the forward attention and equivariant pooling mechanisms to aggregate temporal message. We evaluate our model on three real datasets corresponding to the molecular-, protein- and macro-level. Experimental results verify the effectiveness of ESTAG compared to typical spatio-temporal GNNs and equivariant GNNs.
arxiv情報
著者 | Liming Wu,Zhichao Hou,Jirui Yuan,Yu Rong,Wenbing Huang |
発行日 | 2024-05-21 15:33:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google