On User-Level Private Convex Optimization

要約

タイトル:ユーザーレベルのプライベート凸最適化について

要約:
– ユーザーレベルの差分プライバシー保証を持つ、確率的凸最適化(SCO)の新しいメカニズムを紹介する。
– このメカニズムの収束率は、Levyら(2021年)やNarayananら(2022年)の先行研究と似ているが、2つの重要な改善がある。
– このメカニズムでは、損失についてのスムーズ性の仮定は必要としない。
– また、ユーザーレベルのプライバシーに必要な最小ユーザー数が次元に依存せず、目的の誤差の対数依存しかない、初めての境界を示している。
– 新しいメカニズムの基本的なアイデアは、強く凸な損失の最適化手法が低い局所削除感度を持つことを示すことである。また、局所削除感度が低い関数に対する出力摂動手法も独立して興味深い。

要約(オリジナル)

We introduce a new mechanism for stochastic convex optimization (SCO) with user-level differential privacy guarantees. The convergence rates of this mechanism are similar to those in the prior work of Levy et al. (2021); Narayanan et al. (2022), but with two important improvements. Our mechanism does not require any smoothness assumptions on the loss. Furthermore, our bounds are also the first where the minimum number of users needed for user-level privacy has no dependence on the dimension and only a logarithmic dependence on the desired excess error. The main idea underlying the new mechanism is to show that the optimizers of strongly convex losses have low local deletion sensitivity, along with an output perturbation method for functions with low local deletion sensitivity, which could be of independent interest.

arxiv情報

著者 Badih Ghazi,Pritish Kamath,Ravi Kumar,Raghu Meka,Pasin Manurangsi,Chiyuan Zhang
発行日 2023-05-08 17:47:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CR, cs.LG パーマリンク