Active Membership Inference Attack under Local Differential Privacy in Federated Learning

要約

連合学習 (FL) は、当初、調整サーバーを介したデータ プライバシー保護を備えたクライアント間の共同学習のフレームワークと見なされていました。
この論文では、FL の不正なサーバーによって実行される新しいアクティブ メンバーシップ推論 (AMI) 攻撃を提案します。
AMI 攻撃では、サーバーは悪意のあるパラメーターを作成してグローバル モデルに埋め込み、ターゲット データ サンプルがクライアントのプライベート トレーニング データに含まれているかどうかを効果的に推測します。
非線形決定境界を介してデータ機能間の相関関係を利用することにより、認定された成功保証を伴う AMI 攻撃は、厳格なローカル差分プライバシー (LDP) 保護の下で非常に高い成功率を達成できます。
その結果、クライアントのトレーニング データが重大なプライバシー リスクにさらされます。
いくつかのベンチマーク データセットに関する理論的および実験的な結果は、攻撃を防ぐために十分なプライバシー保護ノイズを追加すると、FL のモデル ユーティリティが大幅に損なわれることを示しています。

要約(オリジナル)

Federated learning (FL) was originally regarded as a framework for collaborative learning among clients with data privacy protection through a coordinating server. In this paper, we propose a new active membership inference (AMI) attack carried out by a dishonest server in FL. In AMI attacks, the server crafts and embeds malicious parameters into global models to effectively infer whether a target data sample is included in a client’s private training data or not. By exploiting the correlation among data features through a non-linear decision boundary, AMI attacks with a certified guarantee of success can achieve severely high success rates under rigorous local differential privacy (LDP) protection; thereby exposing clients’ training data to significant privacy risk. Theoretical and experimental results on several benchmark datasets show that adding sufficient privacy-preserving noise to prevent our attack would significantly damage FL’s model utility.

arxiv情報

著者 Truc Nguyen,Phung Lai,Khang Tran,NhatHai Phan,My T. Thai
発行日 2023-02-24 15:21:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG パーマリンク