One-vs.-One Mitigation of Intersectional Bias: A General Method to Extend Fairness-Aware Binary Classification

要約

現実の世界での機械学習の広範な採用により、差別的バイアスの影響が注目を集めています。
近年、バイアスを軽減するさまざまな方法が提案されています。
しかし、それらのほとんどは、保護されたグループの特定のサブグループに属する人々が複数の敏感な属性を考慮した場合に悪化する不公平な状況をもたらす交差バイアスを考慮していません。
このバイアスを緩和するために、このホワイトペーパーでは、バイナリ分類のための公正された機械学習と機密属性に関連する各サブグループ間の比較プロセスを適用することにより、1対1の緩和と呼ばれる方法を提案します。
3つのアプローチ(前処理、処理、および後処理)、6つのメトリック(人口統計パリティの比率と違い、等しいオッズ、機会均等)、および2つの実際のデータセット(成人とコンパ)を使用して、包括的な設定で従来の公平性を認識したバイナリ分類方法を比較します。
その結果、私たちの方法は、すべての設定で従来の方法よりもはるかに優れた交差バイアスを軽減します。
その結果、複数の機密属性があるときに発生するより現実的な問題を解決するための公平性を認識したバイナリ分類の可能性を開きます。

要約(オリジナル)

With the widespread adoption of machine learning in the real world, the impact of the discriminatory bias has attracted attention. In recent years, various methods to mitigate the bias have been proposed. However, most of them have not considered intersectional bias, which brings unfair situations where people belonging to specific subgroups of a protected group are treated worse when multiple sensitive attributes are taken into consideration. To mitigate this bias, in this paper, we propose a method called One-vs.-One Mitigation by applying a process of comparison between each pair of subgroups related to sensitive attributes to the fairness-aware machine learning for binary classification. We compare our method and the conventional fairness-aware binary classification methods in comprehensive settings using three approaches (pre-processing, in-processing, and post-processing), six metrics (the ratio and difference of demographic parity, equalized odds, and equal opportunity), and two real-world datasets (Adult and COMPAS). As a result, our method mitigates the intersectional bias much better than conventional methods in all the settings. With the result, we open up the potential of fairness-aware binary classification for solving more realistic problems occurring when there are multiple sensitive attributes.

arxiv情報

著者 Kenji Kobayashi,Yuri Nakao
発行日 2025-03-25 13:32:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG, I.2.6 パーマリンク