Cross-View Graph Consistency Learning for Invariant Graph Representations

要約

グラフ表現の学習は、グラフ構造のデータを分析するための基礎です。
不変のグラフ表現を探索することは、ほとんどの既存のグラフ表現学習方法にとって依然として課題です。
本稿では、リンク予測のための不変グラフ表現を学習するクロスビューグラフ整合性学習(CGCL)手法を提案する。
まず、双方向グラフ構造拡張スキームを通じて、不完全なグラフ構造から 2 つの相補的な拡張ビューが導出されます。
この拡張スキームは、エッジ摂動、ノード除去、属性マスキングなど、生のグラフ データを含むさまざまなデータ拡張手法に一般的に関連する潜在的な情報損失を軽減します。
次に、不変グラフ表現を学習できる CGCL モデルを提案します。
提案された CGCL モデルをトレーニングするために、クロスビュー トレーニング スキームが提案されます。
このスキームは、1 つの拡張ビューと、もう 1 つの拡張ビューから再構築されたグラフ構造の間の一貫性情報を最大化しようとします。
さらに、包括的な理論的 CGCL 解析も提供します。
この論文は、提案された CGCL 手法の有効性を経験的および実験的に実証し、いくつかの最先端のアルゴリズムと比較してグラフ データセットで競合する結果を達成します。

要約(オリジナル)

Graph representation learning is fundamental for analyzing graph-structured data. Exploring invariant graph representations remains a challenge for most existing graph representation learning methods. In this paper, we propose a cross-view graph consistency learning (CGCL) method that learns invariant graph representations for link prediction. First, two complementary augmented views are derived from an incomplete graph structure through a bidirectional graph structure augmentation scheme. This augmentation scheme mitigates the potential information loss that is commonly associated with various data augmentation techniques involving raw graph data, such as edge perturbation, node removal, and attribute masking. Second, we propose a CGCL model that can learn invariant graph representations. A cross-view training scheme is proposed to train the proposed CGCL model. This scheme attempts to maximize the consistency information between one augmented view and the graph structure reconstructed from the other augmented view. Furthermore, we offer a comprehensive theoretical CGCL analysis. This paper empirically and experimentally demonstrates the effectiveness of the proposed CGCL method, achieving competitive results on graph datasets in comparisons with several state-of-the-art algorithms.

arxiv情報

著者 Jie Chen,Zhiming Li,Hua Mao,Wai Lok Woo,Xi Peng
発行日 2023-11-20 14:58:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク