GCNH: A Simple Method For Representation Learning On Heterophilous Graphs

要約

タイトル:異種グラフの表現学習のための簡単な方法であるGCNH

要約:

– Graph Neural Networks(GNN)は、エッジが同じ種類のノードを接続するグラフである単型グラフ学習に適しているが、異種グラフに対する一貫したGNNのパフォーマンスの達成は未解決の研究問題である。
– 最近の研究で、異種グラフのパフォーマンスを向上させるために、標準的なGNNアーキテクチャの拡張が提案されているが、予測精度と引き換えにモデルの単純さが損なわれる。
– この研究では、異種グラフと単型グラフの両方に適用できる、シンプルで効果的なGNNアーキテクチャであるGCN for Heterophily(GCNH)を提案する。GCNHは、ノードとその隣接ノードの別々の表現を学習し、1つの学習された重要度係数を使用して各層の中心ノードと隣接ノードの貢献をバランスさせる。
– 我々は、異種度の程度が異なる8つの実世界グラフと一連の合成グラフで包括的な実験を行い、GCNHの設計選択がバニラGCNに比べて大幅に改善することを実証する。
– さらに、GCNHは、複雑さがはるかに高い最先端モデルを4つのベンチマークで上回り、残りのデータセットでは比較可能な結果を生み出す。
– 最後に、GCNHの低い複雑さを分析し、より少ない訓練可能なパラメータとより速いトレーニング時間に結び付ける方法を説明し、GCNHがオーバースムージングの問題を軽減することを示します。

要約(オリジナル)

Graph Neural Networks (GNNs) are well-suited for learning on homophilous graphs, i.e., graphs in which edges tend to connect nodes of the same type. Yet, achievement of consistent GNN performance on heterophilous graphs remains an open research problem. Recent works have proposed extensions to standard GNN architectures to improve performance on heterophilous graphs, trading off model simplicity for prediction accuracy. However, these models fail to capture basic graph properties, such as neighborhood label distribution, which are fundamental for learning. In this work, we propose GCN for Heterophily (GCNH), a simple yet effective GNN architecture applicable to both heterophilous and homophilous scenarios. GCNH learns and combines separate representations for a node and its neighbors, using one learned importance coefficient per layer to balance the contributions of center nodes and neighborhoods. We conduct extensive experiments on eight real-world graphs and a set of synthetic graphs with varying degrees of heterophily to demonstrate how the design choices for GCNH lead to a sizable improvement over a vanilla GCN. Moreover, GCNH outperforms state-of-the-art models of much higher complexity on four out of eight benchmarks, while producing comparable results on the remaining datasets. Finally, we discuss and analyze the lower complexity of GCNH, which results in fewer trainable parameters and faster training times than other methods, and show how GCNH mitigates the oversmoothing problem.

arxiv情報

著者 Andrea Cavallo,Claas Grohnfeldt,Michele Russo,Giulio Lovisotto,Luca Vassio
発行日 2023-04-21 11:26:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク