要約
タイトル: I$^2$-GNNsによるグラフ・ニューラル・ネットワークのサイクルカウント能力の向上
要約:
– メッセージパッシングニューラルネットワーク(MPNN)は、グラフニューラルネットワーク(GNN)の幅広く使用されるクラスであるが、その表現力には限界がある
– 代わりに証明可能なGNNアーキテクチャの研究が行われている
– しかし、どのモデルが他のモデルよりも強力であるかを知っても、それらが表現できる関数についての洞察はほとんど得られない
– このため、特定のグラフサブストラクチャのカウント能力に焦点を当て、強力なGNNモデルであるSubgraph MPNNsのカウント能力を研究することを提案する
– Subgraph MPNNは、各ノードに対してルート付きサブグラフを抽出し、ルートノードにユニークな識別子を割り当て、そのルートノードの表現をサブグラフ内にエンコードする
– 指摘された問題点は、Subgraph MPNNsがノードレベルで4-サイクル以上をカウントできないことで、それは、ノード表現が4つ以上の構成要素を持つリングシステムのような周囲のサブ構造を正しくエンコードできないことを意味する
– この限界を克服するために、I$^2$-GNNsを提案する。I$^2$-GNNsは、各サブグラフにおいてルートノードとその隣接ノードに異なる識別子を割り当てることにより、Subgraph MPNNsを拡張する
– I$^2$-GNNsの差別力がSubgraph MPNNsよりも強く、3-WLテストよりも部分的に強いことが証明されている
– さらに、I$^2$-GNNsがすべての3,4,5,6のサイクルをカウントできることが証明されており、有機化学のベンゼン環などの一般的なサブ構造をカバーしている。また、I$^2$-GNNsは、線形の計算時間で6サイクルをカウントできる理論保証があるGNNモデルとして、現在までに最初のものとなる。
– サイクルカウントタスクにおけるカウント能力を検証し、分子予測のベンチマークで競争力のあるパフォーマンスを示している。
要約(オリジナル)
Message Passing Neural Networks (MPNNs) are a widely used class of Graph Neural Networks (GNNs). The limited representational power of MPNNs inspires the study of provably powerful GNN architectures. However, knowing one model is more powerful than another gives little insight about what functions they can or cannot express. It is still unclear whether these models are able to approximate specific functions such as counting certain graph substructures, which is essential for applications in biology, chemistry and social network analysis. Motivated by this, we propose to study the counting power of Subgraph MPNNs, a recent and popular class of powerful GNN models that extract rooted subgraphs for each node, assign the root node a unique identifier and encode the root node’s representation within its rooted subgraph. Specifically, we prove that Subgraph MPNNs fail to count more-than-4-cycles at node level, implying that node representations cannot correctly encode the surrounding substructures like ring systems with more than four atoms. To overcome this limitation, we propose I$^2$-GNNs to extend Subgraph MPNNs by assigning different identifiers for the root node and its neighbors in each subgraph. I$^2$-GNNs’ discriminative power is shown to be strictly stronger than Subgraph MPNNs and partially stronger than the 3-WL test. More importantly, I$^2$-GNNs are proven capable of counting all 3, 4, 5 and 6-cycles, covering common substructures like benzene rings in organic chemistry, while still keeping linear complexity. To the best of our knowledge, it is the first linear-time GNN model that can count 6-cycles with theoretical guarantees. We validate its counting power in cycle counting tasks and demonstrate its competitive performance in molecular prediction benchmarks.
arxiv情報
| 著者 | Yinan Huang,Xingang Peng,Jianzhu Ma,Muhan Zhang |
| 発行日 | 2023-04-03 17:09:29+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI