Node Injection Link Stealing Attack

要約

この論文では、グラフ構造データ内のプライベート リンクを推測することによって、グラフ ニューラル ネットワーク (GNN) のプライバシーの脆弱性を暴露する、ステルス的で効果的な攻撃を紹介します。
新しいノードがグラフに加わり、予測のクエリに API が使用される帰納的設定に焦点を当て、プライベート エッジ情報の漏洩の可能性を調査します。
また、モデルの実用性を維持しながらプライバシーを保護する方法も提案します。
私たちの攻撃は、最先端技術と比較して、リンクの推論において優れたパフォーマンスを示しています。
さらに、私たちが提案する攻撃の影響を軽減するための差分プライバシー (DP) メカニズムの適用を検討し、プライバシー保護とモデルの有用性の間のトレードオフを分析します。
私たちの研究は、GNN に固有のプライバシーの脆弱性を浮き彫りにし、そのアプリケーションのための堅牢なプライバシー保護メカニズムを開発することの重要性を強調しています。

要約(オリジナル)

In this paper, we present a stealthy and effective attack that exposes privacy vulnerabilities in Graph Neural Networks (GNNs) by inferring private links within graph-structured data. Focusing on the inductive setting where new nodes join the graph and an API is used to query predictions, we investigate the potential leakage of private edge information. We also propose methods to preserve privacy while maintaining model utility. Our attack demonstrates superior performance in inferring the links compared to the state of the art. Furthermore, we examine the application of differential privacy (DP) mechanisms to mitigate the impact of our proposed attack, we analyze the trade-off between privacy preservation and model utility. Our work highlights the privacy vulnerabilities inherent in GNNs, underscoring the importance of developing robust privacy-preserving mechanisms for their application.

arxiv情報

著者 Oualid Zari,Javier Parra-Arnau,Ayşe Ünsal,Melek Önen
発行日 2023-07-25 14:51:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク