On the Fairness Impacts of Private Ensembles Models

要約

PATE (Private Aggregation of Teacher Ensembles) は、複数の「教師」モデルと「生徒」モデルを組み合わせてプライベート モデルを作成できる機械学習フレームワークです。
学生モデルは教師の投票に基づいて出力を予測することを学習し、その結果得られるモデルは差分プライバシーを満たします。
PATE は、半教師あり設定でプライベート モデルを作成する場合、またはデータ ラベルの保護が優先される場合に効果的であることが示されています。
この論文では、PATE の使用が不公平をもたらす可能性があるかどうかを調査し、個人のグループ間で精度の格差が生じる可能性があることを示しています。
この論文では、これらの不均衡な影響に寄与するアルゴリズムとデータの特性、なぜこれらの側面が異なるグループに不均衡な影響を与えるのかを分析し、これらの影響を軽減するための推奨事項も提供しています。

要約(オリジナル)

The Private Aggregation of Teacher Ensembles (PATE) is a machine learning framework that enables the creation of private models through the combination of multiple ‘teacher’ models and a ‘student’ model. The student model learns to predict an output based on the voting of the teachers, and the resulting model satisfies differential privacy. PATE has been shown to be effective in creating private models in semi-supervised settings or when protecting data labels is a priority. This paper explores whether the use of PATE can result in unfairness, and demonstrates that it can lead to accuracy disparities among groups of individuals. The paper also analyzes the algorithmic and data properties that contribute to these disproportionate impacts, why these aspects are affecting different groups disproportionately, and offers recommendations for mitigating these effects

arxiv情報

著者 Cuong Tran,Ferdinando Fioretto
発行日 2023-05-19 16:43:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク