On Performance Discrepancies Across Local Homophily Levels in Graph Neural Networks

要約

グラフ ニューラル ネットワーク (GNN) の研究では、ノード分類における高い相同性 (つまり、同じクラスのノードが接続する傾向) と強力な予測パフォーマンスの間の関係が明らかになりました。
しかし、最近の研究では、この関係はより微妙であることが判明し、単純な GNN が特定の異種性愛環境で学習できることが実証されました。
これらの矛盾する発見を解決し、現実世界のデータセットに近づけるために、グローバルなグラフの相同性レベルの仮定を超えて、ノードのローカルな相同性レベルがグローバルな相同性レベルから逸脱した場合の GNN のパフォーマンスを研究します。
理論的および経験的分析を通じて、局所同種性の変化がどのようにパフォーマンス低下を引き起こし、局所的同種性レベル間でパフォーマンスの不一致を引き起こす可能性があるかを系統的に実証します。
私たちは、さまざまな大域的相同性レベルを持つ 5 つの現実世界のデータセットに対する詳細な分析を通じて、この研究の実際的な意味を基礎づけ、(a) GNN はグラフの大域的相同性から逸脱したノードをテストするために一般化できない可能性があること、(b)
局所的相同性が高いからといって、必ずしもノードに高いパフォーマンスがもたらされるわけではありません。
さらに、グローバル異種性グラフ用に設計された GNN は、局所的同種性レベル全体のパフォーマンスを向上させることでパフォーマンスの不一致を軽減できることを示し、これらの GNN がどのようにしてより強力なグローバル パフォーマンスを達成するかについての新しい視点を提供します。

要約(オリジナル)

Graph Neural Network (GNN) research has highlighted a relationship between high homophily (i.e., the tendency of nodes of the same class to connect) and strong predictive performance in node classification. However, recent work has found the relationship to be more nuanced, demonstrating that simple GNNs can learn in certain heterophilous settings. To resolve these conflicting findings and align closer to real-world datasets, we go beyond the assumption of a global graph homophily level and study the performance of GNNs when the local homophily level of a node deviates from the global homophily level. Through theoretical and empirical analysis, we systematically demonstrate how shifts in local homophily can introduce performance degradation, leading to performance discrepancies across local homophily levels. We ground the practical implications of this work through granular analysis on five real-world datasets with varying global homophily levels, demonstrating that (a) GNNs can fail to generalize to test nodes that deviate from the global homophily of a graph, and (b) high local homophily does not necessarily confer high performance for a node. We further show that GNNs designed for globally heterophilous graphs can alleviate performance discrepancy by improving performance across local homophily levels, offering a new perspective on how these GNNs achieve stronger global performance.

arxiv情報

著者 Donald Loveland,Jiong Zhu,Mark Heimann,Benjamin Fish,Michael T. Shaub,Danai Koutra
発行日 2023-08-22 15:37:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SI パーマリンク