FheFL: Fully Homomorphic Encryption Friendly Privacy-Preserving Federated Learning with Byzantine Users

要約

フェデレーテッド ラーニング (FL) 技術は、従来の機械学習パラダイムにおけるデータ プライバシーの問題を軽減するために開発されました。
FL はユーザーのデータが常にユーザーに残ることを保証しますが、勾配はグローバル モデルを構築するために集中サーバーと共有されます。
これにより、サーバーが共有されたグラデーションから個人情報を推測する可能性があり、プライバシーの漏洩が発生します。
この欠陥を軽減するために、次世代 FL アーキテクチャでは、サーバーからのモデル更新を保護するための暗号化および匿名化技術が提案されました。
ただし、このアプローチでは、悪意のあるユーザーが偽の勾配を共有するなど、別の課題が生じます。
グラデーションは暗号化されているため、サーバーは不正なユーザーを識別できません。
両方の攻撃を軽減するために、この論文では完全準同型暗号化 (FHE) スキームに基づく新しい FL アルゴリズムを提案します。
FL でのモデル集約をサポートする分散型マルチキー加法準同型暗号化スキームを開発します。
また、ユーザーの非ポイズニング率を利用して、暗号化ドメイン内で新しい集約スキームを開発し、提案された暗号化スキームによってプライバシーが確実に保護されながら、データポイズニング攻撃に効果的に対処します。
厳密なセキュリティ、プライバシー、コンバージェンス、および実験分析が提供され、FheFL が新規で安全かつプライベートであり、妥当な計算コストで同等の精度を達成できることが示されています。

要約(オリジナル)

The federated learning (FL) technique was developed to mitigate data privacy issues in the traditional machine learning paradigm. While FL ensures that a user’s data always remain with the user, the gradients are shared with the centralized server to build the global model. This results in privacy leakage, where the server can infer private information from the shared gradients. To mitigate this flaw, the next-generation FL architectures proposed encryption and anonymization techniques to protect the model updates from the server. However, this approach creates other challenges, such as malicious users sharing false gradients. Since the gradients are encrypted, the server is unable to identify rogue users. To mitigate both attacks, this paper proposes a novel FL algorithm based on a fully homomorphic encryption (FHE) scheme. We develop a distributed multi-key additive homomorphic encryption scheme that supports model aggregation in FL. We also develop a novel aggregation scheme within the encrypted domain, utilizing users’ non-poisoning rates, to effectively address data poisoning attacks while ensuring privacy is preserved by the proposed encryption scheme. Rigorous security, privacy, convergence, and experimental analyses have been provided to show that FheFL is novel, secure, and private, and achieves comparable accuracy at reasonable computational cost.

arxiv情報

著者 Yogachandran Rahulamathavan,Charuka Herath,Xiaolan Liu,Sangarapillai Lambotharan,Carsten Maple
発行日 2023-06-26 10:05:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR パーマリンク