Fundamental Limits of Membership Inference Attacks on Machine Learning Models

要約

メンバーシップ推論攻撃 (MIA) は、特定のデータ ポイントがトレーニング データセットの一部であるかどうかを明らかにし、個人に関する機密情報が漏洩する可能性があります。
この記事では、機械学習モデルの MIA に関連する基本的な統計上の制限について説明します。
より正確には、まず、そのような攻撃の有効性と成功を決定する統計量を導き出します。
次に、この関心量に制限を設けるいくつかの状況を調査します。
これにより、潜在的な攻撃の精度をサンプル数や学習モデルのその他の構造パラメーターの関数として推測することができ、場合によってはデータセットから直接推定できます。

要約(オリジナル)

Membership inference attacks (MIA) can reveal whether a particular data point was part of the training dataset, potentially exposing sensitive information about individuals. This article explores the fundamental statistical limitations associated with MIAs on machine learning models. More precisely, we first derive the statistical quantity that governs the effectiveness and success of such attacks. Then, we investigate several situations for which we provide bounds on this quantity of interest. This allows us to infer the accuracy of potential attacks as a function of the number of samples and other structural parameters of learning models, which in some cases can be directly estimated from the dataset.

arxiv情報

著者 Eric Aubinais,Elisabeth Gassiat,Pablo Piantanida
発行日 2023-10-27 14:09:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク