Empowering GNNs via Edge-Aware Weisfeiler-Lehman Algorithm

要約

メッセージ パッシング グラフ ニューラル ネットワーク (GNN) は、その表現力の上限が 1 次元ワイスフェイラー レーマン (1-WL) アルゴリズムによって制限されることが知られています。
より強力な GNN を実現するには、既存の試みではアドホックな機能が必要になるか、時間と空間の複雑さを伴う操作が必要になります。
この研究では、メッセージ パッシング スキームのスケーラビリティを維持する、一般的で実証済みの強力な GNN フレームワークを提案します。
特に、我々は最初に、近傍間のエッジを考慮することによってグラフ同型性テストのために 1-WL を強化することを提案し、NC-1-WL を生み出します。
NC-1-WL の表現力は、理論的には厳密に 1-WL を上回り、3-WL を下回ることが示されています。
さらに、NC-1-WL の微分可能なニューラル バージョンとして NC-GNN フレームワークを提案します。
NC-GNN のシンプルな実装は、NC-1-WL と同じくらい強力であることが証明されています。
実験により、当社の NC-GNN がさまざまなベンチマークで効果的かつ効率的に動作することが実証されました。

要約(オリジナル)

Message passing graph neural networks (GNNs) are known to have their expressiveness upper-bounded by 1-dimensional Weisfeiler-Lehman (1-WL) algorithm. To achieve more powerful GNNs, existing attempts either require ad hoc features, or involve operations that incur high time and space complexities. In this work, we propose a general and provably powerful GNN framework that preserves the scalability of the message passing scheme. In particular, we first propose to empower 1-WL for graph isomorphism test by considering edges among neighbors, giving rise to NC-1-WL. The expressiveness of NC-1-WL is shown to be strictly above 1-WL and below 3-WL theoretically. Further, we propose the NC-GNN framework as a differentiable neural version of NC-1-WL. Our simple implementation of NC-GNN is provably as powerful as NC-1-WL. Experiments demonstrate that our NC-GNN performs effectively and efficiently on various benchmarks.

arxiv情報

著者 Meng Liu,Haiyang Yu,Shuiwang Ji
発行日 2023-05-16 15:41:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク