Efficient Model-Stealing Attacks Against Inductive Graph Neural Networks

要約

グラフ ニューラル ネットワーク (GNN) は、グラフ構造で編成された実世界のデータを処理するための強力なツールとして認識されています。
特に、事前定義されたグラフ構造に依存せずにグラフ構造データの処理を可能にする帰納的 GNN は、幅広いアプリケーションでますます重要になっています。
そのため、これらのネットワークは、攻撃者がターゲットのネットワークの機能を複製しようとするモデル窃盗攻撃にとって魅力的なターゲットになります。
画像やテキストでトレーニングされたモデルを抽出するモデル窃盗攻撃の開発に多大な努力が払われてきました。
ただし、グラフ データでトレーニングされた GNN の盗用についてはほとんど注目されていません。
この論文では、グラフ対比学習とスペクトルグラフ拡張を利用して対象モデルから効率的に情報を抽出し、帰納的 GNN に対して教師なしモデル窃盗攻撃を実行する新しい方法を特定します。
この新しいタイプの攻撃は 6 つのデータセットで徹底的に評価され、その結果、私たちのアプローチが Shen らによる現在の最先端技術を上回るパフォーマンスを示しています。
(2021年)。
特に、私たちの攻撃はすべてのベンチマークでベースラインを上回り、盗まれたモデルの優れた忠実性と下流の精度を達成しながら、ターゲット モデルに向けられたクエリが少なくなります。

要約(オリジナル)

Graph Neural Networks (GNNs) are recognized as potent tools for processing real-world data organized in graph structures. Especially inductive GNNs, which allow for the processing of graph-structured data without relying on predefined graph structures, are becoming increasingly important in a wide range of applications. As such these networks become attractive targets for model-stealing attacks where an adversary seeks to replicate the functionality of the targeted network. Significant efforts have been devoted to developing model-stealing attacks that extract models trained on images and texts. However, little attention has been given to stealing GNNs trained on graph data. This paper identifies a new method of performing unsupervised model-stealing attacks against inductive GNNs, utilizing graph contrastive learning and spectral graph augmentations to efficiently extract information from the targeted model. The new type of attack is thoroughly evaluated on six datasets and the results show that our approach outperforms the current state-of-the-art by Shen et al. (2021). In particular, our attack surpasses the baseline across all benchmarks, attaining superior fidelity and downstream accuracy of the stolen model while necessitating fewer queries directed toward the target model.

arxiv情報

著者 Marcin Podhajski,Jan Dubiński,Franziska Boenisch,Adam Dziedzic,Agnieszka Pregowska And Tomasz Michalak
発行日 2024-08-26 17:10:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク