要約
グラフニューラルネットワーク(GNNS)は、グラフ分析において有望なパフォーマンスを実証しています。
それにもかかわらず、GNNの推論プロセスはコストのかかるままであり、大きなグラフのアプリケーションを妨げます。
このペーパーでは、GNNS推論を加速するためのグラフ圧縮スキームである推論に優しいグラフ圧縮(IFGC)を提案します。
グラフ$ g $とa gnn $ m $を与えられた場合、IFGCは小さな圧縮グラフ$ g_c $を計算し、$ g $を超える$ m $の推論結果を最適に保持します。
(1)推論の等価関係のクラスでIFGCを特徴付けます。
関係は、GNN推論では区別できない$ g $でノードペアをキャプチャします。
(2)代表的なGNNSのIFGCの3つの実用仕様を導入します。構造保存圧縮(SPGC)を導入します。これは、減圧なしでGNN推論によって直接処理できる$ G_C $を計算します。
($ \ alpha $、$ r $) – 圧縮、圧縮比と推論の品質の間の構成可能なトレードオフを可能にし、関心のある特定のノードの推論結果を維持する圧縮を固定しました。
各スキームについて、推定結果の効率と品質を保証する圧縮および推論アルゴリズムを導入します。
私たちは、グラフ圧縮アプローチの有効性と効率を検証する、多様な大規模なグラフのセットで広範な実験を実施します。
要約(オリジナル)
Graph Neural Networks (GNNs) have demonstrated promising performance in graph analysis. Nevertheless, the inference process of GNNs remains costly, hindering their applications for large graphs. This paper proposes inference-friendly graph compression (IFGC), a graph compression scheme to accelerate GNNs inference. Given a graph $G$ and a GNN $M$, an IFGC computes a small compressed graph $G_c$, to best preserve the inference results of $M$ over $G$, such that the result can be directly inferred by accessing $G_c$ with no or little decompression cost. (1) We characterize IFGC with a class of inference equivalence relation. The relation captures the node pairs in $G$ that are not distinguishable for GNN inference. (2) We introduce three practical specifications of IFGC for representative GNNs: structural preserving compression (SPGC), which computes $G_c$ that can be directly processed by GNN inference without decompression; ($\alpha$, $r$)-compression, that allows for a configurable trade-off between compression ratio and inference quality, and anchored compression that preserves inference results for specific nodes of interest. For each scheme, we introduce compression and inference algorithms with guarantees of efficiency and quality of the inferred results. We conduct extensive experiments on diverse sets of large-scale graphs, which verifies the effectiveness and efficiency of our graph compression approaches.
arxiv情報
著者 | Yangxin Fan,Haolai Che,Yinghui Wu |
発行日 | 2025-04-17 15:42:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google