Graph Sampling for Scalable and Expressive Graph Neural Networks on Homophilic Graphs

要約

グラフニューラルネットワーク(GNNS)は、多くのグラフ機械学習タスクで優れていますが、大規模なネットワークにスケーリングする際に課題に直面しています。
GNN転送可能性により、小さなグラフでトレーニングを行い、モデルをより大きなグラフに適用できますが、既存の方法はランダムサブサンプリングに依存していることが多く、サブグラフが切断され、モデルの表現率が低下します。
グラフ構造を保存するために同性愛を活用するレバレッジをレバレッジする新しいグラフサンプリングアルゴリズムを提案します。
データ相関マトリックスのトレースを最小化することにより、この方法は、ランダムサンプリングよりもグラフラプラシアントレース(グラフ接続のプロキシ)をよりよく保持し、スペクトルメソッドよりも低い複雑さを実現します。
引用ネットワークの実験では、ランダムサンプリングと比較して、ラプラシアントレースとGNN移転可能性を維持するパフォーマンスが向上しています。

要約(オリジナル)

Graph Neural Networks (GNNs) excel in many graph machine learning tasks but face challenges when scaling to large networks. GNN transferability allows training on smaller graphs and applying the model to larger ones, but existing methods often rely on random subsampling, leading to disconnected subgraphs and reduced model expressivity. We propose a novel graph sampling algorithm that leverages feature homophily to preserve graph structure. By minimizing the trace of the data correlation matrix, our method better preserves the graph Laplacian trace — a proxy for the graph connectivity — than random sampling, while achieving lower complexity than spectral methods. Experiments on citation networks show improved performance in preserving Laplacian trace and GNN transferability compared to random sampling.

arxiv情報

著者 Haolin Li,Haoyu Wang,Luana Ruiz
発行日 2025-02-28 15:50:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, eess.SP パーマリンク