Simple and Asymmetric Graph Contrastive Learning without Augmentations

要約

グラフ対照学習 (GCL) は、グラフ構造データの表現学習において優れたパフォーマンスを示しました。
成功にもかかわらず、既存の GCL 手法のほとんどは、事前に作成されたグラフ拡張と相同性の仮定に依存しています。
したがって、接続されたノードが異なるクラス ラベルや類似しない特徴を持つ可能性がある異好性グラフにはうまく一般化できません。
この論文では、同好性グラフと異好性グラフに対して対照学習を行う問題を研究します。
隣接ノードの非対称ビューを考慮するだけで、有望なパフォーマンスを達成できることがわかりました。
結果として得られるシンプルなアルゴリズムであるグラフのための非対称対照学習 (GraphACL) は実装が簡単で、グラフの拡張や相同性の仮定に依存しません。
我々は、GraphACL が 1 ホップのローカル近傍情報と 2 ホップのモノフィリ類似度をキャプチャできるという理論的および経験的な証拠を提供します。これらはどちらも異好性グラフのモデル化に重要です。
実験結果は、単純な GraphACL が、同親和性グラフおよび異好性グラフ上で最先端のグラフ対比学習および自己教師あり学習手法を大幅に上回るパフォーマンスを示すことを示しています。
GraphACL のコードは https://github.com/tengxiao1/GraphACL で入手できます。

要約(オリジナル)

Graph Contrastive Learning (GCL) has shown superior performance in representation learning in graph-structured data. Despite their success, most existing GCL methods rely on prefabricated graph augmentation and homophily assumptions. Thus, they fail to generalize well to heterophilic graphs where connected nodes may have different class labels and dissimilar features. In this paper, we study the problem of conducting contrastive learning on homophilic and heterophilic graphs. We find that we can achieve promising performance simply by considering an asymmetric view of the neighboring nodes. The resulting simple algorithm, Asymmetric Contrastive Learning for Graphs (GraphACL), is easy to implement and does not rely on graph augmentations and homophily assumptions. We provide theoretical and empirical evidence that GraphACL can capture one-hop local neighborhood information and two-hop monophily similarity, which are both important for modeling heterophilic graphs. Experimental results show that the simple GraphACL significantly outperforms state-of-the-art graph contrastive learning and self-supervised learning methods on homophilic and heterophilic graphs. The code of GraphACL is available at https://github.com/tengxiao1/GraphACL.

arxiv情報

著者 Teng Xiao,Huaisheng Zhu,Zhengyu Chen,Suhang Wang
発行日 2024-02-16 17:08:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク