Conservation-informed Graph Learning for Spatiotemporal Dynamics Prediction

要約

データ中心の手法は、時空間ダイナミクスの理解と予測において大きな可能性を示しており、オブジェクト システムのより適切な設計と制御を可能にします。
ただし、純粋な深層学習モデルは多くの場合、解釈可能性に欠け、固有の物理学に従わず、さまざまな領域に対処するのに苦労します。
これらの課題にさらに取り組むために、グラフ ニューラル ネットワーク (GNN) などのジオメトリ ベースの手法が提案されていますが、それでも大規模なデータセットから暗黙の物理法則を見つけ出す必要があり、豊富なラベル付きデータに過度に依存する必要があります。
この論文では、限られたトレーニング データに基づいて時空間ダイナミクスを学習するための、エンドツーエンドの説明可能な学習フレームワークである保存情報 GNN (CiGNN) を紹介します。
このネットワークは、対称性を介して一般的な保存則に準拠するように設計されており、保守的な情報と非保守的な情報が、潜在的な時間的行進戦略によって強化されたマルチスケール空間を通過します。
私たちのモデルの有効性は、合成データセットと現実世界のデータセットに基づいたさまざまな時空間システムで検証されており、ベースライン モデルよりも優れていることが示されています。
結果は、CiGNN が顕著な精度と汎化能力を示し、複雑な幾何学構造を持つ空間領域におけるさまざまな時空間ダイナミクスの予測学習に容易に適用できることを示しています。

要約(オリジナル)

Data-centric methods have shown great potential in understanding and predicting spatiotemporal dynamics, enabling better design and control of the object system. However, pure deep learning models often lack interpretability, fail to obey intrinsic physics, and struggle to cope with the various domains. While geometry-based methods, e.g., graph neural networks (GNNs), have been proposed to further tackle these challenges, they still need to find the implicit physical laws from large datasets and rely excessively on rich labeled data. In this paper, we herein introduce the conservation-informed GNN (CiGNN), an end-to-end explainable learning framework, to learn spatiotemporal dynamics based on limited training data. The network is designed to conform to the general conservation law via symmetry, where conservative and non-conservative information passes over a multiscale space enhanced by a latent temporal marching strategy. The efficacy of our model has been verified in various spatiotemporal systems based on synthetic and real-world datasets, showing superiority over baseline models. Results demonstrate that CiGNN exhibits remarkable accuracy and generalization ability, and is readily applicable to learning for prediction of various spatiotemporal dynamics in a spatial domain with complex geometry.

arxiv情報

著者 Yuan Mi,Pu Ren,Hongteng Xu,Hongsheng Liu,Zidong Wang,Yike Guo,Ji-Rong Wen,Hao Sun,Yang Liu
発行日 2024-12-30 13:55:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク