要約
Federated Learning は、サーバーと勾配を交換し、プライベート データをローカルに保持することで、複数のクライアント間でモデルを共同でトレーニングするように設計された、プライバシーを保護する分散型機械学習パラダイムです。
それにもかかわらず、最近の研究では、ディープ リークとして知られる勾配反転技術を通じてプライベートのグラウンド トゥルース データを復元できるため、Federated Learning のセキュリティが危険にさらされていることが明らかになりました。
これらの攻撃は Federated Learning のアプリケーションに焦点を当てて作成されていますが、通常、現実的なシナリオでは評価されません。
このペーパーでは、現実的な Federated コンテキスト内で Deep Leakage の攻撃と防御を評価するための包括的なベンチマークである FEDLAD フレームワーク (Federated Evaluation of Deep Leakage Attacks and Defenses) を紹介します。
複数の最先端の深層漏洩技術とさまざまな防御戦略を網羅する統一ベンチマークを実装することで、当社のフレームワークは、さまざまなデータセットやトレーニング状態にわたるこれらの手法の有効性の評価と比較を容易にします。
この研究は、Federated Learning におけるプライバシーとモデルの精度の間の重要なトレードオフを浮き彫りにし、分散型機械学習システムにおけるセキュリティ課題の理解を進め、今後の研究を刺激し、Deep Leakage 攻撃と防御の評価における再現性を高めることを目的としています。
要約(オリジナル)
Federated Learning is a privacy preserving decentralized machine learning paradigm designed to collaboratively train models across multiple clients by exchanging gradients to the server and keeping private data local. Nevertheless, recent research has revealed that the security of Federated Learning is compromised, as private ground truth data can be recovered through a gradient inversion technique known as Deep Leakage. While these attacks are crafted with a focus on applications in Federated Learning, they generally are not evaluated in realistic scenarios. This paper introduces the FEDLAD Framework (Federated Evaluation of Deep Leakage Attacks and Defenses), a comprehensive benchmark for evaluating Deep Leakage attacks and defenses within a realistic Federated context. By implementing a unified benchmark that encompasses multiple state-of-the-art Deep Leakage techniques and various defense strategies, our framework facilitates the evaluation and comparison of the efficacy of these methods across different datasets and training states. This work highlights a crucial trade-off between privacy and model accuracy in Federated Learning and aims to advance the understanding of security challenges in decentralized machine learning systems, stimulate future research, and enhance reproducibility in evaluating Deep Leakage attacks and defenses.
arxiv情報
著者 | Isaac Baglin,Xiatian Zhu,Simon Hadfield |
発行日 | 2024-11-05 11:42:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google