Considerations on the Theory of Training Models with Differential Privacy

要約

フェデレーテッド ラーニングでは、共同学習は、ローカル トレーニング データがどのように使用されるかをそれぞれが制御したい一連のクライアントによって行われます。特に、各クライアントのローカル トレーニング データを非公開にするにはどうすればよいでしょうか?
差分プライバシーは、プライバシーの漏洩を制限する 1 つの方法です。
そのフレームワークと証明可能なプロパティの一般的な概要を提供し、Gaussian DP または $f$-DP と呼ばれるより最近の仮説ベースの定義を採用し、Differentially Private Stochastic Gradient Descent (DP-SGD) について説明します。
私たちはメタ レベルにとどまり、直感的な説明と洞察を\textit{この本の章で}試みます。

要約(オリジナル)

In federated learning collaborative learning takes place by a set of clients who each want to remain in control of how their local training data is used, in particular, how can each client’s local training data remain private? Differential privacy is one method to limit privacy leakage. We provide a general overview of its framework and provable properties, adopt the more recent hypothesis based definition called Gaussian DP or $f$-DP, and discuss Differentially Private Stochastic Gradient Descent (DP-SGD). We stay at a meta level and attempt intuitive explanations and insights \textit{in this book chapter}.

arxiv情報

著者 Marten van Dijk,Phuong Ha Nguyen
発行日 2023-03-08 15:56:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク