Efficient Federated Learning with Enhanced Privacy via Lottery Ticket Pruning in Edge Computing

要約

タイトル:エッジコンピューティングにおける抽選券削減による強化されたプライバシーを備えた効率的なフェデレーテッド学習

要約:

– モバイル端末(MT)からの分散型プライベートデータの協力学習パラダイムであるフェデレーテッド学習(FL)は、通信、MTのリソース、およびプライバシーの問題を抱えている。
– 既存のプライバシー保護FL手法は、通常、インスタンスレベルの差分プライバシー(DP)を採用しているが、これにはいくつかのボトルネックがある。
– Fed-LTPは、LTHとzCDPを使用した効率的でプライバシー強化されたFLフレームワークであり、サーバー側でプルーニングされたグローバルモデルを生成し、クライアント側でzCDPを用いた疎から疎へのトレーニングを実施する。
– クライアント側では、リソース制約の問題を解決するために疎から疎へのトレーニングを使用し、より緊密なプライバシー解析を提供してプライバシー予算を削減する。
– Fed-LTPの有効性を、IIDおよび非IIDセッティングの複数の実世界データセットで評価しており、結果は、通信、計算、およびメモリの効率性において、SOTA手法よりも優れており、より良いユーティリティプライバシートレードオフを実現していることを明確に示している。

要約(オリジナル)

Federated learning (FL) is a collaborative learning paradigm for decentralized private data from mobile terminals (MTs). However, it suffers from issues in terms of communication, resource of MTs, and privacy. Existing privacy-preserving FL methods usually adopt the instance-level differential privacy (DP), which provides a rigorous privacy guarantee but with several bottlenecks: severe performance degradation, transmission overhead, and resource constraints of edge devices such as MTs. To overcome these drawbacks, we propose Fed-LTP, an efficient and privacy-enhanced FL framework with \underline{\textbf{L}}ottery \underline{\textbf{T}}icket \underline{\textbf{H}}ypothesis (LTH) and zero-concentrated D\underline{\textbf{P}} (zCDP). It generates a pruned global model on the server side and conducts sparse-to-sparse training from scratch with zCDP on the client side. On the server side, two pruning schemes are proposed: (i) the weight-based pruning (LTH) determines the pruned global model structure; (ii) the iterative pruning further shrinks the size of the pruned model’s parameters. Meanwhile, the performance of Fed-LTP is also boosted via model validation based on the Laplace mechanism. On the client side, we use sparse-to-sparse training to solve the resource-constraints issue and provide tighter privacy analysis to reduce the privacy budget. We evaluate the effectiveness of Fed-LTP on several real-world datasets in both independent and identically distributed (IID) and non-IID settings. The results clearly confirm the superiority of Fed-LTP over state-of-the-art (SOTA) methods in communication, computation, and memory efficiencies while realizing a better utility-privacy trade-off.

arxiv情報

著者 Yifan Shi,Kang Wei,Li Shen,Jun Li,Xueqian Wang,Bo Yuan,Song Guo
発行日 2023-05-02 13:02:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CR, cs.DC, cs.LG パーマリンク