Byzantine-Resilient Secure Aggregation for Federated Learning Without Privacy Compromises

要約

フェデレーテッド ラーニング (FL) は、大規模な機械学習において大きな可能性を示していますが、プライバシーとセキュリティの点で新たなリスクをもたらします。
私たちは、ユーザーのデータをフェデレーターからプライベートに保ち、他のユーザーからプライベートに保ちながら、ビザンチン ユーザーに対する回復力を提供する FL 用の新しいスキーム ByITFL を提案します。
このスキームは、ユーザーの勾配を減衰または増幅するトラスト スコア (TS) を通じて悪意のあるユーザーを許容する、既存の非プライベート FLTrust スキームに基づいて構築されています。
信頼スコアは ReLU 関数に基づいており、これを多項式で近似します。
ByITFL の分散型プライバシー保護計算は、ラグランジュ符号化計算、検証可能な秘密共有、再ランダム化ステップを組み合わせて設計されています。
ByITFL は、完全な情報理論的プライバシーを備えたフロリダ州初のビザンチン復元スキームです。

要約(オリジナル)

Federated learning (FL) shows great promise in large scale machine learning, but brings new risks in terms of privacy and security. We propose ByITFL, a novel scheme for FL that provides resilience against Byzantine users while keeping the users’ data private from the federator and private from other users. The scheme builds on the preexisting non-private FLTrust scheme, which tolerates malicious users through trust scores (TS) that attenuate or amplify the users’ gradients. The trust scores are based on the ReLU function, which we approximate by a polynomial. The distributed and privacy-preserving computation in ByITFL is designed using a combination of Lagrange coded computing, verifiable secret sharing and re-randomization steps. ByITFL is the first Byzantine resilient scheme for FL with full information-theoretic privacy.

arxiv情報

著者 Yue Xia,Christoph Hofmeister,Maximilian Egger,Rawad Bitar
発行日 2024-07-08 17:48:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.DC, cs.IT, cs.LG, math.IT パーマリンク