要約
$M$ クライアントを使用した分散設定における差分プライベート確率凸最適化 (DP-SCO) の問題を検討します。各クライアントは $N$ i.i.d のローカル データセットを持ちます。
基礎となるデータ分布からのデータ サンプル。
目的は、ローカル データセットのプライバシーを確保しながら、$M$ クライアント全体での協力的な取り組みを使用して、凸型母集団の損失を最小限に抑えるアルゴリズムを設計することです。
この研究では、この問題に対する精度、通信、プライバシーのトレードオフを調査します。
Vaidya の平面切断法に基づく分散 DP-SCO の新しい下限と新しいアルゴリズムを使用して、一致する逆と達成可能性の結果を確立します。
したがって、私たちの結果は、分散設定における DP-SCO の精度、通信、プライバシーのトレードオフの完全な特徴を提供します。
要約(オリジナル)
We consider the problem of differentially private stochastic convex optimization (DP-SCO) in a distributed setting with $M$ clients, where each of them has a local dataset of $N$ i.i.d. data samples from an underlying data distribution. The objective is to design an algorithm to minimize a convex population loss using a collaborative effort across $M$ clients, while ensuring the privacy of the local datasets. In this work, we investigate the accuracy-communication-privacy trade-off for this problem. We establish matching converse and achievability results using a novel lower bound and a new algorithm for distributed DP-SCO based on Vaidya’s plane cutting method. Thus, our results provide a complete characterization of the accuracy-communication-privacy trade-off for DP-SCO in the distributed setting.
arxiv情報
著者 | Sudeep Salgia,Nikola Pavlovic,Yuejie Chi,Qing Zhao |
発行日 | 2025-01-06 18:57:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google