Graph Generative Model for Benchmarking Graph Neural Networks

要約

グラフ ニューラル ネットワーク (GNN) の分野が成長し続けるにつれて、挑戦的で現実的な問題で新しい GNN モデルをトレーニングおよびテストするための大規模な現実世界のデータセットの必要性がそれに対応して増加しています。
残念ながら、このようなグラフ データセットは、多くの場合、プライバシーが厳しく制限されたオンラインのエコシステムから生成されるため、これらのデータセットの研究開発は、不可能ではないにしても困難になっています。
これにより、研究者が利用できるベンチマーク グラフの量が大幅に減少し、この分野では公開されている少数のデータセットのみに依存することになります。
この問題に対処するために、プライバシー制御された方法で現実世界のグラフの分布を学習および再現する、新しいグラフ生成モデルである計算グラフ変換器 (CGT) を導入します。
より具体的には、CGT は、(1) GNN がソース グラフと同様のタスク パフォーマンスを示す効果的なベンチマーク グラフを生成し、(2) 大規模なグラフを処理するようにスケーリングし、(3) 既製のプライバシー モジュールを組み込んでエンド
生成されたグラフのユーザー プライバシー。
膨大な数のグラフ生成モデルにわたる広範な実験により、私たちのモデルだけが、GNN モデルのベンチマークに効果的に使用できる大規模な現実世界のグラフのプライバシー制御された合成代替物を首尾よく生成できることが示されています。

要約(オリジナル)

As the field of Graph Neural Networks (GNN) continues to grow, it experiences a corresponding increase in the need for large, real-world datasets to train and test new GNN models on challenging, realistic problems. Unfortunately, such graph datasets are often generated from online, highly privacy-restricted ecosystems, which makes research and development on these datasets hard, if not impossible. This greatly reduces the amount of benchmark graphs available to researchers, causing the field to rely only on a handful of publicly-available datasets. To address this problem, we introduce a novel graph generative model, Computation Graph Transformer (CGT) that learns and reproduces the distribution of real-world graphs in a privacy-controlled way. More specifically, CGT (1) generates effective benchmark graphs on which GNNs show similar task performance as on the source graphs, (2) scales to process large-scale graphs, (3) incorporates off-the-shelf privacy modules to guarantee end-user privacy of the generated graph. Extensive experiments across a vast body of graph generative models show that only our model can successfully generate privacy-controlled, synthetic substitutes of large-scale real-world graphs that can be effectively used to benchmark GNN models.

arxiv情報

著者 Minji Yoon,Yue Wu,John Palowitch,Bryan Perozzi,Ruslan Salakhutdinov
発行日 2023-02-20 14:12:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG パーマリンク