要約
タイトル:スケーラブルなリンク予測のためのサブグラフ表現学習の単純化
要約:
– グラフ上のリンク予測は基本的な問題である
– サブグラフ表現学習アプローチ(SGRL)は、リンク予測をリンク周りのサブグラフのグラフ分類に変換することにより、リンク予測において最新の性能を実現している
– しかし、SGRLは計算量が多く、サブグラフレベルの操作が高価であるため、大規模なグラフにスケーラブルではない
– SGRLのスケーラビリティを解放するために、私たちはスケーラブルな単純化されたSGRL(S3GRL)と呼ぶ新しいクラスのSGRLを提案している
– S3GRLは、各リンクのサブグラフ内のメッセージパッシングと集約操作を単純化することを目的としている
– S3GRLはスケーラビリティフレームワークであり、さまざまなサブグラフサンプリング戦略と拡散演算子を収容して、計算量が多いSGRLをエミュレートする
– 私たちはS3GRLの複数のインスタンスを提案し、小規模から大規模なグラフで実験的に研究した
– 私たちの広範な実験は、提案されたS3GRLモデルが、重要なパフォーマンスの犠牲を払うことなく(場合によっては相当な利益を得ることさえ可能)、計算フットプリントを大幅に低下させる(例えば、多重の推論とトレーニングの加速)ことを示している。
要約(オリジナル)
Link prediction on graphs is a fundamental problem. Subgraph representation learning approaches (SGRLs), by transforming link prediction to graph classification on the subgraphs around the links, have achieved state-of-the-art performance in link prediction. However, SGRLs are computationally expensive, and not scalable to large-scale graphs due to expensive subgraph-level operations. To unlock the scalability of SGRLs, we propose a new class of SGRLs, that we call Scalable Simplified SGRL (S3GRL). Aimed at faster training and inference, S3GRL simplifies the message passing and aggregation operations in each link’s subgraph. S3GRL, as a scalability framework, accommodates various subgraph sampling strategies and diffusion operators to emulate computationally-expensive SGRLs. We propose multiple instances of S3GRL and empirically study them on small to large-scale graphs. Our extensive experiments demonstrate that the proposed S3GRL models scale up SGRLs without significant performance compromise (even with considerable gains in some cases), while offering substantially lower computational footprints (e.g., multi-fold inference and training speedup).
arxiv情報
著者 | Paul Louis,Shweta Ann Jacob,Amirali Salehi-Abari |
発行日 | 2023-04-28 13:24:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI