要約
Federated Learning (FL) は、クライアントが生のプライベート データをサーバーと共有する必要性を排除することで、ユーザーのプライバシーを強化する分散学習パラダイムです。
成功にもかかわらず、最近の研究では、攻撃者が共有勾配情報の盗聴を通じてユーザーの個人データを再構築するモデル反転攻撃に対する FL の脆弱性を明らかにしています。
私たちは、このような攻撃の成功の重要な要因は、確率的最適化中のバッチ内のデータごとの勾配間のもつれが少ないことであると仮説を立てています。
これにより、攻撃者が機密データを再構築するために悪用できる脆弱性が生じます。
この洞察に基づいて、私たちは、隠蔽されたサンプルで機密データの勾配を難読化する、シンプルかつ効果的な防御戦略を提案します。
これを達成するために、実際の機密データとの視覚的な非類似性を確保しながら、勾配レベルで機密データを模倣する隠蔽サンプルを合成することを提案します。
従来技術と比較して、我々の経験的評価は、提案された技術が FL 性能を維持しながら同時に最も強力な保護を提供することを示唆しています。
要約(オリジナル)
Federated Learning (FL) is a distributed learning paradigm that enhances users privacy by eliminating the need for clients to share raw, private data with the server. Despite the success, recent studies expose the vulnerability of FL to model inversion attacks, where adversaries reconstruct users private data via eavesdropping on the shared gradient information. We hypothesize that a key factor in the success of such attacks is the low entanglement among gradients per data within the batch during stochastic optimization. This creates a vulnerability that an adversary can exploit to reconstruct the sensitive data. Building upon this insight, we present a simple, yet effective defense strategy that obfuscates the gradients of the sensitive data with concealed samples. To achieve this, we propose synthesizing concealed samples to mimic the sensitive data at the gradient level while ensuring their visual dissimilarity from the actual sensitive data. Compared to the previous art, our empirical evaluations suggest that the proposed technique provides the strongest protection while simultaneously maintaining the FL performance.
arxiv情報
著者 | Jing Wu,Munawar Hayat,Mingyi Zhou,Mehrtash Harandi |
発行日 | 2023-12-14 15:42:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google