Accurate, Explainable, and Private Models: Providing Recourse While Minimizing Training Data Leakage

要約

機械学習モデルは、影響力のある分野全体で、個々の結果を予測するためにますます利用されています。
そのため、多くのモデルは、否定的な結果を受けた個人にアルゴリズムによる救済手段を提供します。
ただし、敵対者が求償権を利用して個人情報を開示する可能性があります。
この取り組みは、そのような攻撃を軽減するための最初の試みを示しています。
差分プライベート リソースを生成する 2 つの新しい方法、差分プライベート モデル (DPM) とラプラス リソース (LR) を紹介します。
ロジスティック回帰分類器と現実世界および合成データセットを使用すると、DPM と LR が、特に低い FPR において、敵対者が推測できる内容を減らすのに優れたパフォーマンスを発揮することがわかりました。
トレーニング データセットのサイズが十分に大きい場合、新しい LR 手法を使用してモデルとリソースの精度を維持しながらプライバシー漏洩を防ぐことに特に成功します。

要約(オリジナル)

Machine learning models are increasingly utilized across impactful domains to predict individual outcomes. As such, many models provide algorithmic recourse to individuals who receive negative outcomes. However, recourse can be leveraged by adversaries to disclose private information. This work presents the first attempt at mitigating such attacks. We present two novel methods to generate differentially private recourse: Differentially Private Model (DPM) and Laplace Recourse (LR). Using logistic regression classifiers and real world and synthetic datasets, we find that DPM and LR perform well in reducing what an adversary can infer, especially at low FPR. When training dataset size is large enough, we find particular success in preventing privacy leakage while maintaining model and recourse accuracy with our novel LR method.

arxiv情報

著者 Catherine Huang,Chelse Swoopes,Christina Xiao,Jiaqi Ma,Himabindu Lakkaraju
発行日 2023-08-08 15:38:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク