要約
機械学習のバイアスを軽減することで機密機能に関する公平性を追求する手法が数多く実装されています。
しかし、各手法が取り組む問題の設定は、介入の段階、機密性の高い機能の構成、公平性の概念、出力の分配など、大きく異なります。
バイナリ分類においてさえ、これらの微妙な違いにより、公平性手法のベンチマークが非常に複雑になります。これは、公平性手法のパフォーマンスが、バイアス緩和の問題が最初にどのように組み立てられたかに大きく依存する可能性があるためです。
そこで、現実世界の問題設定の要望に適応し、あらゆるユースケースのメソッド間の適切な比較を可能にするベンチマーク アプローチである ABCFair を紹介します。
私たちは、公平性と精度のトレードオフを回避するために、ABCFair を大規模な従来のデータセットとデュアルラベル (偏りのあるデータセットと不偏なデータセット) の両方で前処理、中処理、後処理のさまざまな方法に適用します。
要約(オリジナル)
Numerous methods have been implemented that pursue fairness with respect to sensitive features by mitigating biases in machine learning. Yet, the problem settings that each method tackles vary significantly, including the stage of intervention, the composition of sensitive features, the fairness notion, and the distribution of the output. Even in binary classification, these subtle differences make it highly complicated to benchmark fairness methods, as their performance can strongly depend on exactly how the bias mitigation problem was originally framed. Hence, we introduce ABCFair, a benchmark approach which allows adapting to the desiderata of the real-world problem setting, enabling proper comparability between methods for any use case. We apply ABCFair to a range of pre-, in-, and postprocessing methods on both large-scale, traditional datasets and on a dual label (biased and unbiased) dataset to sidestep the fairness-accuracy trade-off.
arxiv情報
著者 | MaryBeth Defrance,Maarten Buyl,Tijl De Bie |
発行日 | 2024-09-25 14:26:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google