FedGIG: Graph Inversion from Gradient in Federated Learning

要約

最近の研究では、フェデレーテッド ラーニング (FL) が、共有勾配からプライベート トレーニング データを回復できる勾配反転攻撃 (GIA) に対して脆弱であることが示されています。
ただし、既存の方法は画像やベクトル化されたテキストなどの高密度の連続データ向けに設計されており、疎な離散グラフ データに直接適用することはできません。
このペーパーではまず、Federated Graph Learning (FGL) に対する GIA の影響を調査し、グラフ構造データ用に特別に設計された新しい GIA 手法である Graph Inversion from Gradient in Federated Learning (FedGIG) を紹介します。
FedGIG には、再構築されたグラフ データのスパース性と離散性を保証する隣接行列制約モジュールと、欠落している共通サブグラフ構造を補完するように設計されたサブグラフ再構築モジュールが含まれています。
分子データセットに関する広範な実験により、FedGIG が既存の GIA 技術よりも優れた精度を実証しています。

要約(オリジナル)

Recent studies have shown that Federated learning (FL) is vulnerable to Gradient Inversion Attacks (GIA), which can recover private training data from shared gradients. However, existing methods are designed for dense, continuous data such as images or vectorized texts, and cannot be directly applied to sparse and discrete graph data. This paper first explores GIA’s impact on Federated Graph Learning (FGL) and introduces Graph Inversion from Gradient in Federated Learning (FedGIG), a novel GIA method specifically designed for graph-structured data. FedGIG includes the adjacency matrix constraining module, which ensures the sparsity and discreteness of the reconstructed graph data, and the subgraph reconstruction module, which is designed to complete missing common subgraph structures. Extensive experiments on molecular datasets demonstrate FedGIG’s superior accuracy over existing GIA techniques.

arxiv情報

著者 Tianzhe Xiao,Yichen Li,Yining Qi,Haozhao Wang,Ruixuan Li
発行日 2024-12-24 15:52:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク