Addressing Membership Inference Attack in Federated Learning with Model Compression

要約

Federated Learning (FL) は、機械学習のプライバシー保護ソリューションとして提案されています。
ただし、最近の研究では、Federated Learning がメンバーシップ攻撃を通じてクライアントのプライベート データを漏洩する可能性があることが示されています。
この論文では、クライアントに対するこれらの攻撃の有効性が、クライアント データセットのサイズおよびモデルの複雑さと負の相関があることを示します。
この発見に基づいて、クライアントでさまざまな複雑さのモデルを使用できるため、プライバシー強化ソリューションとしてモデルに依存しないフェデレーテッド ラーニングを提案します。
この目的を達成するために、我々は $\texttt{MaPP-FL}$ を提案します。これは、完全なモデルをサーバー上に保持しながら、クライアント上でモデル圧縮を活用する、プライバシーを意識した新しい FL アプローチです。
$\texttt{MaPP-FL}$ のパフォーマンスを、CIFAR-10、CIFAR-100、および FEMNIST ビジョン データセット上の最先端のモデルに依存しない FL 手法と比較します。
私たちの実験では、$\texttt{MaPP-FL}$ が競合する分類精度を達成しながらクライアントとサーバーのプライバシーを保護する効果があることを示しています。

要約(オリジナル)

Federated Learning (FL) has been proposed as a privacy-preserving solution for machine learning. However, recent works have shown that Federated Learning can leak private client data through membership attacks. In this paper, we show that the effectiveness of these attacks on the clients negatively correlates with the size of the client datasets and model complexity. Based on this finding, we propose model-agnostic Federated Learning as a privacy-enhancing solution because it enables the use of models of varying complexity in the clients. To this end, we present $\texttt{MaPP-FL}$, a novel privacy-aware FL approach that leverages model compression on the clients while keeping a full model on the server. We compare the performance of $\texttt{MaPP-FL}$ against state-of-the-art model-agnostic FL methods on the CIFAR-10, CIFAR-100, and FEMNIST vision datasets. Our experiments show the effectiveness of $\texttt{MaPP-FL}$ in preserving the clients’ and the server’s privacy while achieving competitive classification accuracies.

arxiv情報

著者 Gergely Dániel Németh,Miguel Ángel Lozano,Novi Quadrianto,Nuria Oliver
発行日 2023-11-29 15:54:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG パーマリンク