要約
グラフ ニューラル ネットワークは、さまざまなアプリケーションにおける複雑なグラフ データのモデリングにおいて多大な成功を収めてきました。
ただし、GNN におけるプライバシー保護を調査した研究は限られています。
この研究では、ユーティリティの損失を少なくしながら、ユーザー レベルでノードのプライバシーを提供できる学習フレームワークを提案します。
私たちは、差分プライバシーの分散概念、つまりローカル差分プライバシーに焦点を当て、データがモデルトレーニングのために中央サーバーによって収集される前に、ノードレベルで特徴とラベルの両方のデータを混乱させるランダム化メカニズムを適用します。
具体的には、高次元の特徴設定におけるランダム化メカニズムの適用を調査し、厳格なプライバシー保証を備えたLDPプロトコルを提案します。
ランダム化データの統計解析における周波数推定に基づいて、摂動データから特徴とラベルを近似する再構成手法を開発します。
また、この学習フレームワークを定式化して、グラフ クラスターの頻度推定を利用して、サブグラフ レベルでトレーニング手順を監視します。
現実世界および半合成データセットに対する広範な実験により、提案したモデルの有効性が実証されました。
要約(オリジナル)
Graph Neural Networks have achieved tremendous success in modeling complex graph data in a variety of applications. However, there are limited studies investigating privacy protection in GNNs. In this work, we propose a learning framework that can provide node privacy at the user level, while incurring low utility loss. We focus on a decentralized notion of Differential Privacy, namely Local Differential Privacy, and apply randomization mechanisms to perturb both feature and label data at the node level before the data is collected by a central server for model training. Specifically, we investigate the application of randomization mechanisms in high-dimensional feature settings and propose an LDP protocol with strict privacy guarantees. Based on frequency estimation in statistical analysis of randomized data, we develop reconstruction methods to approximate features and labels from perturbed data. We also formulate this learning framework to utilize frequency estimates of graph clusters to supervise the training procedure at a sub-graph level. Extensive experiments on real-world and semi-synthetic datasets demonstrate the validity of our proposed model.
arxiv情報
著者 | Karuna Bhaila,Wen Huang,Yongkai Wu,Xintao Wu |
発行日 | 2023-09-15 17:35:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google