要約
タイトル: ローカル差分プライバシーは公平性に不利益を与えない
要約:
– ローカル差分プライバシー(LDP)は、実世界のアプリケーションで広く採用されているプライバシー保護手法。
– LDPでは、ユーザーはデータを自分のデバイスで変換してから、分析のために送信することができる。
– ただし、複数の機密情報の収集がさまざまな業界で一般的になるにつれて、LDPの下で1つの機密属性を収集するだけでは十分ではなくなっている。
– データの相関属性は、依然として機密属性に関する推論を導く可能性がある。
– この論文では、LDP下で複数の機密属性を収集することが公平性に与える影響を実証的に研究している。
– 独自のプライバシーバジェット割り当てスキームを提案し、機密属性のさまざまな領域サイズを考慮している。
– 結果として、LDPはモデルの性能に大きな影響を与えることなく、学習問題においてやや改善された公正性をもたらすことがわかった。
– 3つのベンチマークデータセットを使用して、7つの最新のLDPプロトコルといくつかのグループ公平性指標を評価する広範な実験を実施した。
– 全体的に、この研究は、差分プライバシーが自動学習において公正性を悪化させる必要があるという一般的な信念に挑戦している。
要約(オリジナル)
In recent years, Local Differential Privacy (LDP), a robust privacy-preserving methodology, has gained widespread adoption in real-world applications. With LDP, users can perturb their data on their devices before sending it out for analysis. However, as the collection of multiple sensitive information becomes more prevalent across various industries, collecting a single sensitive attribute under LDP may not be sufficient. Correlated attributes in the data may still lead to inferences about the sensitive attribute. This paper empirically studies the impact of collecting multiple sensitive attributes under LDP on fairness. We propose a novel privacy budget allocation scheme that considers the varying domain size of sensitive attributes. This generally led to a better privacy-utility-fairness trade-off in our experiments than the state-of-art solution. Our results show that LDP leads to slightly improved fairness in learning problems without significantly affecting the performance of the models. We conduct extensive experiments evaluating three benchmark datasets using several group fairness metrics and seven state-of-the-art LDP protocols. Overall, this study challenges the common belief that differential privacy necessarily leads to worsened fairness in machine learning.
arxiv情報
著者 | Héber H. Arcolezi,Karima Makhlouf,Catuscia Palamidessi |
発行日 | 2023-04-25 14:18:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI