Graph Generative Model for Benchmarking Graph Neural Networks

要約

グラフ ニューラル ネットワーク (GNN) の分野が成長し続けるにつれて、困難で現実的な問題に対して新しい GNN モデルをトレーニングおよびテストするための大規模な現実世界のデータセットの必要性もそれに応じて増加しています。
残念ながら、このようなグラフ データセットは、プライバシーが非常に制限されたオンラインのエコシステムから生成されることが多く、そのため、これらのデータセットの研究開発は不可能ではないにしても困難になります。
これにより、研究者が利用できるベンチマーク グラフの量が大幅に減少し、この分野は公的に利用可能な少数のデータセットのみに依存することになります。
この問題に対処するために、プライバシーが管理された方法で現実世界のグラフの分布を学習して再現する新しいグラフ生成モデルである Computation Graph Transformer (CGT) を導入します。
より具体的には、CGT は、(1) GNN がソース グラフと同様のタスク パフォーマンスを示す効果的なベンチマーク グラフを生成し、(2) 大規模なグラフを処理するために拡張し、(3) エンドポイントを保証するために既製のプライバシー モジュールを組み込んでいます。
生成されたグラフのユーザーのプライバシー。
膨大な量のグラフ生成モデルにわたる広範な実験により、GNN モデルのベンチマークに効果的に使用できる、大規模な現実世界のグラフのプライバシー制御された合成代替物を正常に生成できるのは、私たちのモデルだけであることがわかりました。

要約(オリジナル)

As the field of Graph Neural Networks (GNN) continues to grow, it experiences a corresponding increase in the need for large, real-world datasets to train and test new GNN models on challenging, realistic problems. Unfortunately, such graph datasets are often generated from online, highly privacy-restricted ecosystems, which makes research and development on these datasets hard, if not impossible. This greatly reduces the amount of benchmark graphs available to researchers, causing the field to rely only on a handful of publicly-available datasets. To address this problem, we introduce a novel graph generative model, Computation Graph Transformer (CGT) that learns and reproduces the distribution of real-world graphs in a privacy-controlled way. More specifically, CGT (1) generates effective benchmark graphs on which GNNs show similar task performance as on the source graphs, (2) scales to process large-scale graphs, (3) incorporates off-the-shelf privacy modules to guarantee end-user privacy of the generated graph. Extensive experiments across a vast body of graph generative models show that only our model can successfully generate privacy-controlled, synthetic substitutes of large-scale real-world graphs that can be effectively used to benchmark GNN models.

arxiv情報

著者 Minji Yoon,Yue Wu,John Palowitch,Bryan Perozzi,Ruslan Salakhutdinov
発行日 2023-06-09 11:52:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG パーマリンク