Gaussian Membership Inference Privacy

要約

私たちは、$f$-Membership Inference Privacy ($f$-MIP) と呼ばれる新しいプライバシー概念を提案します。これは、メンバーシップ推論攻撃脅威モデルの下で現実的な敵対者の能力を明示的に考慮します。
そうすることで、$f$-MIP は解釈可能なプライバシー保証と実用性の向上 (例: 分類精度の向上) を提供します。
ノイズの多い確率的勾配降下法 (SGD) に対する尤度比ベースのメンバーシップ推論攻撃の新しい理論的分析により、$\mu$-Gaussian Membership Inference Privacy ($\mu) と呼ばれる $f$-MIP 保証のパラメトリック ファミリが得られます。
$-GMIP)。
さらに、私たちの分析により、以前のアプローチに比べて明確な利点を提供する分析メンバーシップ推論攻撃が得られます。
まず、既存の手法とは異なり、私たちの攻撃では、尤度比を近似するために何百ものシャドウ モデルをトレーニングする必要がありません。
第二に、私たちの分析攻撃により、私たちのプライバシー概念 $f$-MIP の簡単な監査が可能になります。
最後に、私たちの分析は、特定のポイントのトレーニング セットへのメンバーシップを確実に推論する攻撃者の成功を制御する際の、ハイパーパラメーター (バッチ サイズ、モデル パラメーターの数など) やデータ固有の特性などのさまざまな要素の重要性を強調しています。
ビジョンおよび表形式のデータセット全体でトレーニングされたモデルに対する手法の有効性を実証します。

要約(オリジナル)

We propose a new privacy notion called $f$-Membership Inference Privacy ($f$-MIP), which explicitly considers the capabilities of realistic adversaries under the membership inference attack threat model. By doing so $f$-MIP offers interpretable privacy guarantees and improved utility (e.g., better classification accuracy). Our novel theoretical analysis of likelihood ratio-based membership inference attacks on noisy stochastic gradient descent (SGD) results in a parametric family of $f$-MIP guarantees that we refer to as $\mu$-Gaussian Membership Inference Privacy ($\mu$-GMIP). Our analysis additionally yields an analytical membership inference attack that offers distinct advantages over previous approaches. First, unlike existing methods, our attack does not require training hundreds of shadow models to approximate the likelihood ratio. Second, our analytical attack enables straightforward auditing of our privacy notion $f$-MIP. Finally, our analysis emphasizes the importance of various factors, such as hyperparameters (e.g., batch size, number of model parameters) and data specific characteristics in controlling an attacker’s success in reliably inferring a given point’s membership to the training set. We demonstrate the effectiveness of our method on models trained across vision and tabular datasets.

arxiv情報

著者 Tobias Leemann,Martin Pawelczyk,Gjergji Kasneci
発行日 2023-06-12 17:57:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG, stat.ML パーマリンク