On provable privacy vulnerabilities of graph representations

要約

グラフ表現学習 (GRL) は、複雑なネットワーク構造から洞察を抽出するために重要ですが、これらの表現には潜在的なプライバシーの脆弱性があるため、セキュリティ上の懸念も生じます。
この論文では、エッジ再構築攻撃を通じて機密のトポロジー情報が推測される可能性があるグラフ ニューラル モデルの構造的脆弱性を調査します。
私たちの研究は主に類似性に基づくエッジ再構成攻撃 (SERA) の理論的基礎に取り組み、その再構成能力の非漸近分析を提供します。
さらに、グラフ サイズが増加するにつれて、このような攻撃が疎なグラフを完全に再構築できることを示す経験的な裏付けを示します。
逆に、(密な)確率的ブロック モデルの分析と実験を通じて実証されたように、スパース性が SERA の有効性にとって重要な要素であることを確立します。
最後に、SERA に対するノイズ集約 (NAG) メカニズムによって生成されたプライベート グラフ表現の復元力を調査します。
理論分析と実証的評価を通じて、NAG を使用した SERA の軽減を確認します。
並行して、SERA がプライバシーと実用性のトレードオフを解明するための手段として機能する能力において有効性と欠陥性の両方を実証する事例も経験的に描写します。

要約(オリジナル)

Graph representation learning (GRL) is critical for extracting insights from complex network structures, but it also raises security concerns due to potential privacy vulnerabilities in these representations. This paper investigates the structural vulnerabilities in graph neural models where sensitive topological information can be inferred through edge reconstruction attacks. Our research primarily addresses the theoretical underpinnings of similarity-based edge reconstruction attacks (SERA), furnishing a non-asymptotic analysis of their reconstruction capacities. Moreover, we present empirical corroboration indicating that such attacks can perfectly reconstruct sparse graphs as graph size increases. Conversely, we establish that sparsity is a critical factor for SERA’s effectiveness, as demonstrated through analysis and experiments on (dense) stochastic block models. Finally, we explore the resilience of private graph representations produced via noisy aggregation (NAG) mechanism against SERA. Through theoretical analysis and empirical assessments, we affirm the mitigation of SERA using NAG . In parallel, we also empirically delineate instances wherein SERA demonstrates both efficacy and deficiency in its capacity to function as an instrument for elucidating the trade-off between privacy and utility.

arxiv情報

著者 Ruofan Wu,Guanhua Fang,Qiying Pan,Mingyang Zhang,Tengfei Liu,Weiqiang Wang
発行日 2024-10-23 14:50:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク