Unified Enhancement of Privacy Bounds for Mixture Mechanisms via $f$-Differential Privacy

要約

差分プライベート (DP) 機械学習アルゴリズムでは、ランダムな初期化、ランダムなバッチ サブサンプリング、シャッフルなど、多くのランダム性の原因が発生します。
ただし、このようなランダム性は、アルゴリズムの出力に分析が難しい混合分布を引き起こすため、差分プライバシー境界を証明するときに考慮するのが困難です。
この論文は、$f$-DP を使用したランダム初期化によるシャッフル モデルと 1 回の反復差分プライベート勾配降下法 (DP-GD) のプライバシー境界の改善に焦点を当てています。
$(\epsilon,\delta)$-DP に基づく最新の結果を上回るシャッフル モデルのトレードオフ関数の閉形式式を導出します。
さらに、1 回反復 DP-GD のプライバシーに対するランダム初期化の影響を調査します。
トレードオフ関数の数値計算は、ランダムな初期化が DP-GD のプライバシーを強化できることを示しています。
これらの混合メカニズムに対する $f$-DP 保証の分析は、この論文で紹介したトレードオフ関数の不等式に依存しています。
この不等式は、$F$ 発散の同時凸性を意味します。
最後に、$(\epsilon,\delta)$-DP に関連するホッケースティック発散の高度な関節凸性の $f$-DP アナログを研究し、それを混合メカニズムのプライバシーの解析に適用します。

要約(オリジナル)

Differentially private (DP) machine learning algorithms incur many sources of randomness, such as random initialization, random batch subsampling, and shuffling. However, such randomness is difficult to take into account when proving differential privacy bounds because it induces mixture distributions for the algorithm’s output that are difficult to analyze. This paper focuses on improving privacy bounds for shuffling models and one-iteration differentially private gradient descent (DP-GD) with random initializations using $f$-DP. We derive a closed-form expression of the trade-off function for shuffling models that outperforms the most up-to-date results based on $(\epsilon,\delta)$-DP. Moreover, we investigate the effects of random initialization on the privacy of one-iteration DP-GD. Our numerical computations of the trade-off function indicate that random initialization can enhance the privacy of DP-GD. Our analysis of $f$-DP guarantees for these mixture mechanisms relies on an inequality for trade-off functions introduced in this paper. This inequality implies the joint convexity of $F$-divergences. Finally, we study an $f$-DP analog of the advanced joint convexity of the hockey-stick divergence related to $(\epsilon,\delta)$-DP and apply it to analyze the privacy of mixture mechanisms.

arxiv情報

著者 Chendi Wang,Buxin Su,Jiayuan Ye,Reza Shokri,Weijie J. Su
発行日 2023-11-01 14:43:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG, math.ST, stat.ME, stat.ML, stat.TH パーマリンク