要約
私たちは、現実世界と合成データセットの両方でさまざまなプライバシー レベルでのプライバシーとユーティリティのトレードオフを調査し、メンバーシップ推論攻撃による監査を実行することにより、医療分野の人口グラフの差分プライベート グラフ ニューラル ネットワークに関する実証的調査を開始します。
私たちの調査結果は、この特定の DP アプリケーション領域の可能性と課題を浮き彫りにしています。
さらに、グラフの同質性の程度とトレーニングされたモデルの精度との相関関係を示すことにより、基礎となるグラフ構造がパフォーマンスギャップを大きくする潜在的な要因を構成しているという証拠を発見しました。
要約(オリジナル)
We initiate an empirical investigation into differentially private graph neural networks on population graphs from the medical domain by examining privacy-utility trade-offs at different privacy levels on both real-world and synthetic datasets and performing auditing through membership inference attacks. Our findings highlight the potential and the challenges of this specific DP application area. Moreover, we find evidence that the underlying graph structure constitutes a potential factor for larger performance gaps by showing a correlation between the degree of graph homophily and the accuracy of the trained model.
arxiv情報
著者 | Tamara T. Mueller,Maulik Chevli,Ameya Daigavane,Daniel Rueckert,Georgios Kaissis |
発行日 | 2023-07-13 13:59:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google