要約
私たちは、分類におけるグループの公平性の問題に取り組みます。目的は、母集団のサブグループを不当に差別しないモデルを学習することです。
既存のアプローチのほとんどは、単純なバイナリ タスクに限定されているか、実装が困難なトレーニング メカニズムを含んでおり、実際の適用性が低くなります。
この論文では、グループが有利かどうかに基づいてグループ固有の重みを繰り返し学習する再重み付けスキームに基づいて公平性を強制する方法である FairGrad を提案します。
FairGrad は実装が簡単で、さまざまな標準的な公平性の定義に対応し、オーバーヘッドが最小限に抑えられます。
さらに、自然言語処理やコンピューター ビジョンで使用されるデータセットを含むさまざまなデータセットに対して標準ベースラインと競合することを示します。
FairGrad は、https://pypi.org/project/fairgrad で PyPI パッケージとして入手できます。
要約(オリジナル)
We address the problem of group fairness in classification, where the objective is to learn models that do not unjustly discriminate against subgroups of the population. Most existing approaches are limited to simple binary tasks or involve difficult to implement training mechanisms which reduces their practical applicability. In this paper, we propose FairGrad, a method to enforce fairness based on a re-weighting scheme that iteratively learns group specific weights based on whether they are advantaged or not. FairGrad is easy to implement, accommodates various standard fairness definitions, and comes with minimal overhead. Furthermore, we show that it is competitive with standard baselines over various datasets including ones used in natural language processing and computer vision. FairGrad is available as a PyPI package at – https://pypi.org/project/fairgrad
arxiv情報
| 著者 | Gaurav Maheshwari,Michaël Perrot |
| 発行日 | 2023-08-07 12:58:57+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google