Fundamental Limits of Membership Inference Attacks on Machine Learning Models

要約

メンバーシップ推論攻撃 (MIA) は、特定のデータ ポイントがトレーニング データセットの一部であるかどうかを明らかにし、個人に関する機密情報が漏洩する可能性があります。
この記事では、機械学習モデルの MIA に関連する基本的な統計的制限を調査することにより、理論的な保証を提供します。
より正確には、まず、そのような攻撃の有効性と成功を決定する統計量を導き出します。
次に、過学習アルゴリズムを使用した非常に一般的な回帰設定では、攻撃が成功する可能性が高いと推測します。
最後に、この対象量に制限を設けるいくつかの状況を調査します。
私たちの結果により、サンプル数や学習モデルのその他の構造パラメーターに基づいて、潜在的な攻撃の精度を推定することができます。
場合によっては、これらのパラメーターはデータセットから直接推定できます。

要約(オリジナル)

Membership inference attacks (MIA) can reveal whether a particular data point was part of the training dataset, potentially exposing sensitive information about individuals. This article provides theoretical guarantees by exploring the fundamental statistical limitations associated with MIAs on machine learning models. More precisely, we first derive the statistical quantity that governs the effectiveness and success of such attacks. We then deduce that in a very general regression setting with overfitting algorithms, attacks may have a high probability of success. Finally, we investigate several situations for which we provide bounds on this quantity of interest. Our results enable us to deduce the accuracy of potential attacks based on the number of samples and other structural parameters of learning models. In certain instances, these parameters can be directly estimated from the dataset.

arxiv情報

著者 Eric Aubinais,Elisabeth Gassiat,Pablo Piantanida
発行日 2024-01-31 14:04:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク