WW-FL: Secure and Private Large-Scale Federated Learning

要約

フェデレーション ラーニング (FL) は、クライアント デバイス上にトレーニング データを保持することでデータ プライバシーを約束する、大規模な分散機械学習のための効率的なアプローチです。
しかし、最近の研究で FL の脆弱性が明らかになり、ポイズニング攻撃を通じてセキュリティとプライバシーの両方に影響を及ぼし、個々のモデルの更新および集約されたグローバル モデルで機密情報が漏洩する可能性があります。
この論文では、既存の FL 保護対策が単独で適用された場合の不十分な点と、効果的な構成を作成する際の課題について検討します。
これらの問題に対処するために、私たちは、安全なマルチパーティ コンピューテーション (MPC) と階層型 FL を組み合わせて、データとグローバル モデルのプライバシーを保証する革新的なフレームワークである WW-FL を提案します。
WW-FL の注目すべき機能の 1 つは、悪意のあるクライアントがモデル パラメーターを直接汚染するのを防ぎ、破壊性の低いデータ ポイズニング攻撃に限定する機能です。
さらに、WW-FL のパフォーマンスと堅牢性を体系的に測定するために、Meta の CrypTen MPC フレームワークと統合された PyTorch ベースの FL 実装を提供します。
私たちの広範な評価により、WW-FL が安全でプライベートな大規模なフェデレーテッド ラーニングにとって有望なソリューションであることが実証されました。

要約(オリジナル)

Federated learning (FL) is an efficient approach for large-scale distributed machine learning that promises data privacy by keeping training data on client devices. However, recent research has uncovered vulnerabilities in FL, impacting both security and privacy through poisoning attacks and the potential disclosure of sensitive information in individual model updates as well as the aggregated global model. This paper explores the inadequacies of existing FL protection measures when applied independently, and the challenges of creating effective compositions. Addressing these issues, we propose WW-FL, an innovative framework that combines secure multi-party computation (MPC) with hierarchical FL to guarantee data and global model privacy. One notable feature of WW-FL is its capability to prevent malicious clients from directly poisoning model parameters, confining them to less destructive data poisoning attacks. We furthermore provide a PyTorch-based FL implementation integrated with Meta’s CrypTen MPC framework to systematically measure the performance and robustness of WW-FL. Our extensive evaluation demonstrates that WW-FL is a promising solution for secure and private large-scale federated learning.

arxiv情報

著者 Felix Marx,Thomas Schneider,Ajith Suresh,Tobias Wehrle,Christian Weinert,Hossein Yalame
発行日 2024-05-30 17:00:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.DC, cs.IT, cs.LG, math.IT パーマリンク