When Machine Learning Models Leak: An Exploration of Synthetic Training Data

要約

私たちは、個人または世帯が今後 2 年間に転居するかどうかを予測する機械学習モデル、つまり転居傾向分類器に対する攻撃を調査します。
この攻撃は、攻撃者がモデルにクエリを実行して予測を取得できること、およびモデルがトレーニングされたデータの周辺分布が公的に利用可能であることを前提としています。
また、この攻撃は、攻撃者が一定数の標的個人の非機密属性の値を取得していることを前提としています。
攻撃の目的は、これらの標的となる個人の機密属性の値を推測することです。
モデルのトレーニング時に元のデータを合成データに置き換えることが、攻撃者が機密属性を推測できるかどうかにどのような影響を与えるかを調査します。

要約(オリジナル)

We investigate an attack on a machine learning model that predicts whether a person or household will relocate in the next two years, i.e., a propensity-to-move classifier. The attack assumes that the attacker can query the model to obtain predictions and that the marginal distribution of the data on which the model was trained is publicly available. The attack also assumes that the attacker has obtained the values of non-sensitive attributes for a certain number of target individuals. The objective of the attack is to infer the values of sensitive attributes for these target individuals. We explore how replacing the original data with synthetic data when training the model impacts how successfully the attacker can infer sensitive attributes.

arxiv情報

著者 Manel Slokom,Peter-Paul de Wolf,Martha Larson
発行日 2024-03-07 18:09:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク