A Flexible, Equivariant Framework for Subgraph GNNs via Graph Products and Graph Coarsening

要約

サブグラフ グラフ ニューラル ネットワーク (サブグラフ GNN) は、グラフをサブグラフのセットとして表現することにより、メッセージパッシング GNN の表現力を強化します。
これらはいくつかのタスクで優れたパフォーマンスを示していますが、その複雑さにより、アプリケーションはより大きなグラフに制限されます。
以前のアプローチでは、ランダムまたは学習可能なサンプリングによって選択されたサブグラフのサブセットのみを処理することが提案されていました。
ただし、サブグラフの選択が最適ではなかったり、非常に小さなサブセット サイズにしか対応できなかったりするため、パフォーマンスの低下が避けられません。
このペーパーでは、これらの問題に対処するための新しい Subgraph GNN フレームワークを紹介します。
グラフ粗大化関数を使用して、接続性を誘導してノードをスーパーノードにクラスター化します。
粗くなったグラフと元のグラフの積により、サブグラフが特定のノードのセットに関連付けられている暗黙の構造が明らかになります。
このようなグラフ積で一般化されたメッセージパッシングを実行することにより、私たちの方法は効率的でありながら強力なサブグラフ GNN を効果的に実装します。
粗化関数を制御すると、以前の方法とは異なり、標準のトレーニング手法と完全に互換性を保ちながら、任意の数のサブグラフを意味のある選択が可能になります。
特に、結果として得られるノード特徴テンソルが、新しい未調査の順列対称性を示すことがわかりました。
この構造を利用して、関連する線形等変層を特徴付け、それらをサブグラフ GNN アーキテクチャの層に組み込みます。
複数のグラフ学習ベンチマークに関する広範な実験により、私たちの方法は、ベースラインのアプローチよりも一貫して優れたパフォーマンスを示しながら、任意の数のサブグラフをシームレスに処理できるため、以前のアプローチよりも大幅に柔軟であることが実証されました。

要約(オリジナル)

Subgraph Graph Neural Networks (Subgraph GNNs) enhance the expressivity of message-passing GNNs by representing graphs as sets of subgraphs. They have shown impressive performance on several tasks, but their complexity limits applications to larger graphs. Previous approaches suggested processing only subsets of subgraphs, selected either randomly or via learnable sampling. However, they make suboptimal subgraph selections or can only cope with very small subset sizes, inevitably incurring performance degradation. This paper introduces a new Subgraph GNNs framework to address these issues. We employ a graph coarsening function to cluster nodes into super-nodes with induced connectivity. The product between the coarsened and the original graph reveals an implicit structure whereby subgraphs are associated with specific sets of nodes. By running generalized message-passing on such graph product, our method effectively implements an efficient, yet powerful Subgraph GNN. Controlling the coarsening function enables meaningful selection of any number of subgraphs while, contrary to previous methods, being fully compatible with standard training techniques. Notably, we discover that the resulting node feature tensor exhibits new, unexplored permutation symmetries. We leverage this structure, characterize the associated linear equivariant layers and incorporate them into the layers of our Subgraph GNN architecture. Extensive experiments on multiple graph learning benchmarks demonstrate that our method is significantly more flexible than previous approaches, as it can seamlessly handle any number of subgraphs, while consistently outperforming baseline approaches.

arxiv情報

著者 Guy Bar-Shalom,Yam Eitan,Fabrizio Frasca,Haggai Maron
発行日 2024-06-13 16:29:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク