要約
Differentially Private Federated Learning (DP-FL) は、形式的なプライバシーを確保する協調的な機械学習アプローチとして注目を集めています。
ほとんどの DP-FL アプローチでは、クロスサイロ FL の各サイロ内でレコードレベルの DP が保証されます。
ただし、単一ユーザーのデータは複数のサイロにまたがる可能性があり、そのような設定に対して望ましいユーザーレベルの DP 保証は不明のままです。
この研究では、単一ユーザーのデータが複数のサイロに属する可能性があるクロスサイロ FL でユーザーレベルの DP を保証するように設計された新しい FL フレームワークである ULDP-FL を紹介します。
私たちが提案するアルゴリズムは、グループ プライバシーのアプローチから離れて、ユーザーごとの重み付けクリッピングを通じてユーザー レベルの DP を直接保証します。
アルゴリズムのプライバシーと有用性の理論的分析を提供します。
さらに、アルゴリズムのユーティリティを強化し、暗号化ビルディング ブロックを使用したプライベート実装を紹介します。
実世界のデータセットでの実証実験では、ベースライン手法と比較して、ユーザーレベルの DP の下でのプライバシーとユーティリティのトレードオフにおける私たちの手法の大幅な改善が示されています。
私たちの知る限り、私たちの作品は、一般的なクロスサイロ FL 設定でユーザーレベルの DP を効果的に提供する最初の FL フレームワークです。
要約(オリジナル)
Differentially Private Federated Learning (DP-FL) has garnered attention as a collaborative machine learning approach that ensures formal privacy. Most DP-FL approaches ensure DP at the record-level within each silo for cross-silo FL. However, a single user’s data may extend across multiple silos, and the desired user-level DP guarantee for such a setting remains unknown. In this study, we present ULDP-FL, a novel FL framework designed to guarantee user-level DP in cross-silo FL where a single user’s data may belong to multiple silos. Our proposed algorithm directly ensures user-level DP through per-user weighted clipping, departing from group-privacy approaches. We provide a theoretical analysis of the algorithm’s privacy and utility. Additionally, we enhance the algorithm’s utility and showcase its private implementation using cryptographic building blocks. Empirical experiments on real-world datasets show substantial improvements in our methods in privacy-utility trade-offs under user-level DP compared to baseline methods. To the best of our knowledge, our work is the first FL framework that effectively provides user-level DP in the general cross-silo FL setting.
arxiv情報
著者 | Fumiyuki Kato,Li Xiong,Shun Takagi,Yang Cao,Masatoshi Yoshikawa |
発行日 | 2023-08-23 15:50:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google