Using Decentralized Aggregation for Federated Learning with Differential Privacy

要約

現在、モバイル デバイスとネットワークのユビキタスな使用により、個人データの制御が失われることへの懸念が生じており、交換通信、大規模データベース、分散型協調 (P2P) マシンを組み合わせたシナリオにおけるプライバシーと実用性のトレードオフに向けた研究の進歩が懸念されています。
テクニックを学ぶ。
一方、Federated Learning (FL) は、ローカル トレーニングを実行してグローバル モデルを強化するローカル ノードにデータを保持することである程度のプライバシーを提供しますが、このシナリオは依然としてメンバーシップ推論攻撃としてプライバシー侵害の影響を受けやすくなっています。
より強力なレベルのプライバシーを提供するために、この研究では、ベンチマーク データセットを使用して差分プライバシー (DP) を備えた FL の実験環境を展開します。
得られた結果は、分類例を用いて、DP のパラメータと技術の選択がプライバシーとユーティリティの間の前述のトレードオフの中心であることを示しています。

要約(オリジナル)

Nowadays, the ubiquitous usage of mobile devices and networks have raised concerns about the loss of control over personal data and research advance towards the trade-off between privacy and utility in scenarios that combine exchange communications, big databases and distributed and collaborative (P2P) Machine Learning techniques. On the other hand, although Federated Learning (FL) provides some level of privacy by retaining the data at the local node, which executes a local training to enrich a global model, this scenario is still susceptible to privacy breaches as membership inference attacks. To provide a stronger level of privacy, this research deploys an experimental environment for FL with Differential Privacy (DP) using benchmark datasets. The obtained results show that the election of parameters and techniques of DP is central in the aforementioned trade-off between privacy and utility by means of a classification example.

arxiv情報

著者 Hadeel Abd El-Kareem,Abd El-Moaty Saleh,Ana Fernández-Vilas,Manuel Fernández-Veiga,asser El-Sonbaty
発行日 2023-11-27 17:02:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク