要約
連合学習 (FL) は、当初、調整サーバーを介したデータ プライバシー保護を備えたクライアント間の共同学習のフレームワークと見なされていました。
この論文では、FL の不正なサーバーによって実行される新しいアクティブ メンバーシップ推論 (AMI) 攻撃を提案します。
AMI 攻撃では、サーバーは悪意のあるパラメーターを作成してグローバル モデルに埋め込み、ターゲット データ サンプルがクライアントのプライベート トレーニング データに含まれているかどうかを効果的に推測します。
非線形決定境界を介してデータ機能間の相関関係を利用することにより、認定された成功保証を伴う AMI 攻撃は、厳格なローカル差分プライバシー (LDP) 保護の下で非常に高い成功率を達成できます。
その結果、クライアントのトレーニング データが重大なプライバシー リスクにさらされます。
いくつかのベンチマーク データセットに関する理論的および実験的な結果は、攻撃を防ぐために十分なプライバシー保護ノイズを追加すると、FL のモデル ユーティリティが大幅に損なわれることを示しています。
要約(オリジナル)
Federated learning (FL) was originally regarded as a framework for collaborative learning among clients with data privacy protection through a coordinating server. In this paper, we propose a new active membership inference (AMI) attack carried out by a dishonest server in FL. In AMI attacks, the server crafts and embeds malicious parameters into global models to effectively infer whether a target data sample is included in a client’s private training data or not. By exploiting the correlation among data features through a non-linear decision boundary, AMI attacks with a certified guarantee of success can achieve severely high success rates under rigorous local differential privacy (LDP) protection; thereby exposing clients’ training data to significant privacy risk. Theoretical and experimental results on several benchmark datasets show that adding sufficient privacy-preserving noise to prevent our attack would significantly damage FL’s model utility.
arxiv情報
著者 | Truc Nguyen,Phung Lai,Khang Tran,NhatHai Phan,My T. Thai |
発行日 | 2023-02-24 15:21:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google