Exploiting Defenses against GAN-Based Feature Inference Attacks in Federated Learning

要約

フェデレーテッド ラーニング (FL) は、データのプライバシーを維持しながら、孤立したデータ アイランドをマージすることを目的とした分散型モデル トレーニング フレームワークです。
しかし、最近の研究では、敵対的生成ネットワーク (GAN) ベースの攻撃がフロリダ州でプライベート データセットの分布を学習し、認識可能な画像を再構成するために使用できることが明らかになりました。
この論文では、フロリダ州における GAN ベースの攻撃に対する防御機能を活用し、攻撃者が被害者のデータの実際の分布を知ることを防ぐためのフレームワークである Anti-GAN を提案します。
Anti-GAN の中心となるアイデアは、プライベート トレーニング画像の視覚的特徴を操作して、攻撃者によって復元された画像であっても人間の目には区別できないようにすることです。
具体的には、Anti-GAN はプライベート データセットを GAN のジェネレーターに投影し、生成された偽の画像と実際の画像を組み合わせてトレーニング データセットを作成します。このデータセットはフェデレーション モデルのトレーニングに使用されます。
実験結果は、Anti-GAN がフェデレーテッド モデルの精度への被害を最小限に抑えながら、攻撃者によるプライベート イメージの配布の学習を防ぐのに効果的であることを示しています。

要約(オリジナル)

Federated learning (FL) is a decentralized model training framework that aims to merge isolated data islands while maintaining data privacy. However, recent studies have revealed that Generative Adversarial Network (GAN) based attacks can be employed in FL to learn the distribution of private datasets and reconstruct recognizable images. In this paper, we exploit defenses against GAN-based attacks in FL and propose a framework, Anti-GAN, to prevent attackers from learning the real distribution of the victim’s data. The core idea of Anti-GAN is to manipulate the visual features of private training images to make them indistinguishable to human eyes even restored by attackers. Specifically, Anti-GAN projects the private dataset onto a GAN’s generator and combines the generated fake images with the actual images to create the training dataset, which is then used for federated model training. The experimental results demonstrate that Anti-GAN is effective in preventing attackers from learning the distribution of private images while causing minimal harm to the accuracy of the federated model.

arxiv情報

著者 Xinjian Luo,Xianglong Zhang
発行日 2024-08-20 14:11:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク