A Dynamical Graph Prior for Relational Inference

要約

関係推論は、観察された力学から力学システムの部分間の相互作用を特定することを目的としています。
現在の最先端の手法は、学習可能なグラフ上のグラフ ニューラル ネットワーク (GNN) をダイナミクスに適合させます。
これらはワンステップ メッセージ パッシング GNN を使用します。マルチステップ GNN やスペクトル GNN の非局所性は直接相互作用と間接相互作用を混乱させる可能性があるため、直感的には正しい選択です。
しかし、 \textit{効果的な} 相互作用グラフはサンプリング レートに依存し、直接の近傍に局在化することはほとんどないため、ワンステップ モデルの極小値につながります。
この研究では、関係推論のための \textit{事前動的グラフ} (DYGR) を提案します。
これを事前分布と呼ぶ理由は、確立された手法に反して、高度な非局所多項式フィルターで誤差増幅を建設的に使用して、グラフ学習に適切な勾配を生成するためです。
非一意性に対処するために、DYGR は共有グラフ トポロジを使用して「浅い」ワンステップ モデルを同時に適合させます。
実験によれば、DYGR は以前の方法よりもはるかに正確にグラフを再構築し、アンダーサンプリングに対する顕著な堅牢性を備えていることがわかりました。
未知の動的システムに対する適切なサンプリング レートは事前にわからないため、この堅牢性により、DYGR は科学機械学習における実際のアプリケーションに適しています。

要約(オリジナル)

Relational inference aims to identify interactions between parts of a dynamical system from the observed dynamics. Current state-of-the-art methods fit a graph neural network (GNN) on a learnable graph to the dynamics. They use one-step message-passing GNNs — intuitively the right choice since non-locality of multi-step or spectral GNNs may confuse direct and indirect interactions. But the \textit{effective} interaction graph depends on the sampling rate and it is rarely localized to direct neighbors, leading to local minima for the one-step model. In this work, we propose a \textit{dynamical graph prior} (DYGR) for relational inference. The reason we call it a prior is that, contrary to established practice, it constructively uses error amplification in high-degree non-local polynomial filters to generate good gradients for graph learning. To deal with non-uniqueness, DYGR simultaneously fits a “shallow” one-step model with shared graph topology. Experiments show that DYGR reconstructs graphs far more accurately than earlier methods, with remarkable robustness to under-sampling. Since appropriate sampling rates for unknown dynamical systems are not known a priori, this robustness makes DYGR suitable for real applications in scientific machine learning.

arxiv情報

著者 Liming Pan,Cheng Shi,Ivan Dokmanić
発行日 2023-06-09 17:07:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク