Privacy Auditing with One (1) Training Run

要約

我々は、単一のトレーニング実行で差分プライベート機械学習システムを監査するスキームを提案します。
これは、複数のトレーニング サンプルを個別に追加または削除できるという並列性を利用します。
私たちは、差分プライバシーと統計的一般化の間の関係を使用してこれを分析し、グループ プライバシーのコストを回避します。
当社の監査スキームは、アルゴリズムに関する最小限の仮定を必要とし、ブラックボックスまたはホワイトボックス設定に適用できます。

要約(オリジナル)

We propose a scheme for auditing differentially private machine learning systems with a single training run. This exploits the parallelism of being able to add or remove multiple training examples independently. We analyze this using the connection between differential privacy and statistical generalization, which avoids the cost of group privacy. Our auditing scheme requires minimal assumptions about the algorithm and can be applied in the black-box or white-box setting.

arxiv情報

著者 Thomas Steinke,Milad Nasr,Matthew Jagielski
発行日 2023-05-15 17:57:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.DS, cs.LG パーマリンク