(Local) Differential Privacy has NO Disparate Impact on Fairness

要約

近年、堅牢なプライバシー保護手法である Local Differential Privacy (LDP) が、現実世界のアプリケーションで広く採用されるようになりました。
LDP を使用すると、ユーザーは分析のためにデータを送信する前に、デバイス上のデータを混乱させることができます。
ただし、複数の機密情報の収集がさまざまな業界で普及するにつれて、LDP に基づいて単一の機密属性を収集するだけでは十分ではなくなる可能性があります。
データ内の相関関係のある属性によっても、機密属性に関する推論が行われる可能性があります。
この論文では、LDP の下で複数の機密属性を収集することが公平性に及ぼす影響を実証的に研究しています。
私たちは、機密属性のさまざまなドメイン サイズを考慮した、新しいプライバシー予算割り当てスキームを提案します。
これにより、一般に、私たちの実験では、最先端のソリューションよりもプライバシー、ユーティリティ、公平性のトレードオフが向上しました。
私たちの結果は、LDP がモデルのパフォーマンスに大きな影響を与えることなく、学習問題の公平性をわずかに改善することにつながることを示しています。
私たちは、いくつかのグループ公平性メトリクスと 7 つの最先端のLDP プロトコルを使用して 3 つのベンチマーク データセットを評価する広範な実験を実施します。
全体として、この研究は、差分プライバシーは必然的に機械学習における公平性の悪化につながるという一般的な考えに疑問を投げかけています。

要約(オリジナル)

In recent years, Local Differential Privacy (LDP), a robust privacy-preserving methodology, has gained widespread adoption in real-world applications. With LDP, users can perturb their data on their devices before sending it out for analysis. However, as the collection of multiple sensitive information becomes more prevalent across various industries, collecting a single sensitive attribute under LDP may not be sufficient. Correlated attributes in the data may still lead to inferences about the sensitive attribute. This paper empirically studies the impact of collecting multiple sensitive attributes under LDP on fairness. We propose a novel privacy budget allocation scheme that considers the varying domain size of sensitive attributes. This generally led to a better privacy-utility-fairness trade-off in our experiments than the state-of-art solution. Our results show that LDP leads to slightly improved fairness in learning problems without significantly affecting the performance of the models. We conduct extensive experiments evaluating three benchmark datasets using several group fairness metrics and seven state-of-the-art LDP protocols. Overall, this study challenges the common belief that differential privacy necessarily leads to worsened fairness in machine learning.

arxiv情報

著者 Héber H. Arcolezi,Karima Makhlouf,Catuscia Palamidessi
発行日 2023-08-01 11:50:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク