Homomorphism Counts for Graph Neural Networks: All About That Basis

要約

グラフ ニューラル ネットワークは、グラフ上の不変関数を学習するためのアーキテクチャです。
膨大な量の研究により、グラフ ニューラル ネットワークの特性が調査され、特に表現力に関するいくつかの制限が特定されました。
学習すべき関数の多くはそのようなパターンをカウントする能力に依存しているため、グラフ内の特定のパターン (サイクルなど) をカウントできないことがそのような制限の中心にあります。
2 つの著名なパラダイムは、サブグラフまたは準同型パターンのカウントでグラフの特徴を強化することで、この制限に対処することを目的としています。
この研究では、これらのアプローチの両方がある意味で次善であることを示し、ターゲット パターンの「基礎」にすべての構造の準同型性カウントを組み込む、よりきめ細かいアプローチを主張します。
これにより、既存のアプローチと比較して、計算の複雑さの点で追加のオーバーヘッドを発生させることなく、厳密により表現力豊かなアーキテクチャが得られます。
ノードレベルおよびグラフレベルのモチーフパラメータに関する一連の理論的結果を証明し、標準ベンチマークデータセットでそれらを経験的に検証します。

要約(オリジナル)

Graph neural networks are architectures for learning invariant functions over graphs. A large body of work has investigated the properties of graph neural networks and identified several limitations, particularly pertaining to their expressive power. Their inability to count certain patterns (e.g., cycles) in a graph lies at the heart of such limitations, since many functions to be learned rely on the ability of counting such patterns. Two prominent paradigms aim to address this limitation by enriching the graph features with subgraph or homomorphism pattern counts. In this work, we show that both of these approaches are sub-optimal in a certain sense and argue for a more fine-grained approach, which incorporates the homomorphism counts of all structures in the ‘basis’ of the target pattern. This yields strictly more expressive architectures without incurring any additional overhead in terms of computational complexity compared to existing approaches. We prove a series of theoretical results on node-level and graph-level motif parameters and empirically validate them on standard benchmark datasets.

arxiv情報

著者 Emily Jin,Michael Bronstein,Ismail Ilkan Ceylan,Matthias Lanzinger
発行日 2024-02-13 16:57:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク