Generative-Contrastive Heterogeneous Graph Neural Network

要約

異種グラフ(Heterogeneous Graphs, HG)は、実世界における複雑な関係を、複数のタイプのノードとエッジによって効果的にモデル化することができる。近年、自己教師付き学習に触発され、対照的異種グラフニューラルネットワーク(HGNN)は、データ増強と識別器を下流タスクに利用することにより、大きな可能性を示している。しかし、グラフの離散的で抽象的な性質のため、データ補強にはまだ限界がある。この限界に対処するために、我々は新しい GC-HGNN を提案します。具体的には、まず、異種グラフ生成学習による対照学習強化パラダイムを提案する。このパラダイムには以下が含まれる:1) マスキングされたオートエンコーダを用いた対照的なビュー拡張戦略。2) 固いネガティブサンプルを生成するための、位置を意識した、意味を意識したポジティブサンプルのサンプリング戦略。3) 局所的・大域的情報を取り込むための階層的対比学習戦略。さらに、階層的対比学習とサンプリング戦略は、生成的対比の観点の下で、より強化された識別器を構成することを目指す。最後に、8つの実世界データセットにおいて、我々のモデルを17のベースラインと比較する。我々のモデルは、ノード分類とリンク予測タスクにおいて、最新の対照的ベースラインと生成的ベースラインを凌駕した。我々の研究を再現するために、コードを https://github.com/xxx でオープンソース化した。

要約(オリジナル)

Heterogeneous Graphs (HGs) can effectively model complex relationships in the real world by multi-type nodes and edges. In recent years, inspired by self-supervised learning, contrastive Heterogeneous Graphs Neural Networks (HGNNs) have shown great potential by utilizing data augmentation and discriminators for downstream tasks. However, data augmentation is still limited due to the discrete and abstract nature of graphs. To tackle the above limitations, we propose a novel \textit{Generative-Contrastive Heterogeneous Graph Neural Network (GC-HGNN)}. Specifically, we first propose a heterogeneous graph generative learning enhanced contrastive paradigm. This paradigm includes: 1) A contrastive view augmentation strategy by using masked autoencoder. 2) Position-aware and semantics-aware positive sample sampling strategy for generate hard negative samples. 3) A hierarchical contrastive learning strategy for capturing local and global information. Furthermore, the hierarchical contrastive learning and sampling strategies aim to constitute an enhanced discriminator under the generative-contrastive perspective. Finally, we compare our model with seventeen baselines on eight real-world datasets. Our model outperforms the latest contrastive and generative baselines on node classification and link prediction tasks. To reproduce our work, we have open-sourced our code at https://github.com/xxx.

arxiv情報

著者 Yu Wang,Lei Sang,Yi Zhang,Yiwen Zhang
発行日 2024-04-03 15:31:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.IR, cs.LG パーマリンク