要約
アルゴリズムの公平性は機械学習において重要な役割を果たし、学習中に公平性制約を課すことは一般的なアプローチである。しかし、多くのデータセットでは、特定のラベルクラス(例えば、「健康」)や感度の高いサブグループ(例えば、「高齢者」)において、バランスが取れていない。経験的に、このアンバランスは分類だけでなく、特にオーバーパラメータ化されたモデルにおける公平性の特性の汎化性の欠如につながる。例えば、公平性を考慮した学習は、学習データ上では均等なオッズ(EO)を保証するかもしれないが、新規ユーザ上ではEOを満たすには程遠い。本論文では、理論的に原理的でありながら柔軟なアプローチであるImmbalance-Fairness-Aware (FIFA)を提案する。具体的には、FIFAは分類と公平性の汎化の両方を促進し、ロジットベースの損失を用いた既存の多くの公平な学習手法と柔軟に組み合わせることが可能である。我々はEOに主に焦点を当てているが、FIFAは機会均等化(EqOpt)を達成するために直接適用することができ、特定の条件下では、他の公平概念にも適用することが可能である。我々はFIFAを一般的な公正分類アルゴリズムと組み合わせることでFIFAの能力を実証し、その結果、いくつかの実世界のデータセットにおいて著しく優れた公正一般化を達成することができた。
要約(オリジナル)
Algorithmic fairness plays an important role in machine learning and imposing fairness constraints during learning is a common approach. However, many datasets are imbalanced in certain label classes (e.g. ‘healthy’) and sensitive subgroups (e.g. ‘older patients’). Empirically, this imbalance leads to a lack of generalizability not only of classification, but also of fairness properties, especially in over-parameterized models. For example, fairness-aware training may ensure equalized odds (EO) on the training data, but EO is far from being satisfied on new users. In this paper, we propose a theoretically-principled, yet Flexible approach that is Imbalance-Fairness-Aware (FIFA). Specifically, FIFA encourages both classification and fairness generalization and can be flexibly combined with many existing fair learning methods with logits-based losses. While our main focus is on EO, FIFA can be directly applied to achieve equalized opportunity (EqOpt); and under certain conditions, it can also be applied to other fairness notions. We demonstrate the power of FIFA by combining it with a popular fair classification algorithm, and the resulting algorithm achieves significantly better fairness generalization on several real-world datasets.
arxiv情報
著者 | Zhun Deng,Jiayao Zhang,Linjun Zhang,Ting Ye,Yates Coley,Weijie J. Su,James Zou |
発行日 | 2022-06-06 04:39:25+00:00 |
arxivサイト | arxiv_id(pdf) |