Auditing $f$-Differential Privacy in One Run

要約

実証的監査は、プライバシー保護アルゴリズムの実装における欠陥の一部を発見する手段として登場しました。
しかし、既存の監査メカニズムは、機械学習アルゴリズムを複数回実行する必要があるため計算効率が低いか、経験的なプライバシーの計算において最適ではありません。
この研究では、メカニズムのプライバシーを効果的に評価できる、厳密で効率的な監査手順と分析を紹介します。
私たちのアプローチは効率的です。
Steinke、Nasr、および Jagielski (2023) の最近の研究と同様に、私たちの監査手順は入力データセット内のサンプルのランダム性を活用しており、ターゲット メカニズムを 1 回実行するだけで済みます。
そしてそれはより正確です。
私たちは、メカニズムの仮説 $f$-DP 曲線を使用することで、厳密な経験に基づくプライバシー推定を達成できる新しい分析を提供します。これにより、従来の $\epsilon,\delta$ の差分プライバシー パラメーターよりも正確なプライバシーの尺度が得られます。
当社は監査による調達と分析を利用して経験的なプライバシーを取得し、当社の監査手順によりより厳密なプライバシー推定値が得られることを実証しています。

要約(オリジナル)

Empirical auditing has emerged as a means of catching some of the flaws in the implementation of privacy-preserving algorithms. Existing auditing mechanisms, however, are either computationally inefficient requiring multiple runs of the machine learning algorithms or suboptimal in calculating an empirical privacy. In this work, we present a tight and efficient auditing procedure and analysis that can effectively assess the privacy of mechanisms. Our approach is efficient; similar to the recent work of Steinke, Nasr, and Jagielski (2023), our auditing procedure leverages the randomness of examples in the input dataset and requires only a single run of the target mechanism. And it is more accurate; we provide a novel analysis that enables us to achieve tight empirical privacy estimates by using the hypothesized $f$-DP curve of the mechanism, which provides a more accurate measure of privacy than the traditional $\epsilon,\delta$ differential privacy parameters. We use our auditing procure and analysis to obtain empirical privacy, demonstrating that our auditing procedure delivers tighter privacy estimates.

arxiv情報

著者 Saeed Mahloujifar,Luca Melis,Kamalika Chaudhuri
発行日 2024-10-29 17:02:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク