要約
グラフ表現学習 (GRL) は機械学習の基本的なタスクであり、高次元のグラフ構造データを低次元のベクトルにエンコードすることを目的としています。
自己教師あり学習 (SSL) 手法は、高価な人間によるアノテーションを回避できるため、GRL で広く使用されています。
この研究では、新しいサブグラフ ガウス埋め込みコントラスト (SGEC) 方法を提案します。
私たちのアプローチでは、サブグラフ ガウス埋め込みモジュールを導入しています。これは、サブグラフを構造化ガウス空間に適応的にマッピングし、生成されるサブグラフの分布を制御しながらグラフの特性を確実に保持します。
Wasserstein 距離や Gromov-Wasserstein 距離などの最適な輸送距離を使用して、サブグラフ間の類似性を効果的に測定し、対比学習プロセスのロバスト性を強化します。
複数のベンチマークにわたる広範な実験により、SGEC が最先端のアプローチに対して優れたパフォーマンスを発揮する、または競合するパフォーマンスを発揮することが実証されています。
私たちの発見は、GRL の SSL メソッドの設計に関する洞察を提供し、生成された対照的なペアの分布の重要性を強調しています。
要約(オリジナル)
Graph representation learning (GRL) is a fundamental task in machine learning, aiming to encode high-dimensional graph-structured data into low-dimensional vectors. Self-supervised learning (SSL) methods are widely used in GRL because they can avoid expensive human annotation. In this work, we propose a novel Subgraph Gaussian Embedding Contrast (SGEC) method. Our approach introduces a subgraph Gaussian embedding module, which adaptively maps subgraphs to a structured Gaussian space, ensuring the preservation of graph characteristics while controlling the distribution of generated subgraphs. We employ optimal transport distances, including Wasserstein and Gromov-Wasserstein distances, to effectively measure the similarity between subgraphs, enhancing the robustness of the contrastive learning process. Extensive experiments across multiple benchmarks demonstrate that SGEC outperforms or presents competitive performance against state-of-the-art approaches. Our findings provide insights into the design of SSL methods for GRL, emphasizing the importance of the distribution of the generated contrastive pairs.
arxiv情報
著者 | Shifeng Xie,Jhony H. Giraldo |
発行日 | 2024-11-11 17:23:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google