要約
機械学習システムの公平性に関するほとんどの研究は、人口統計学的パリティや均等化オッズなどの一般的な公平性指標の盲目的な最適化に焦点を当てています。
この論文では、いくつかのバイアス緩和アプローチの比較研究を行い、予測レベルという細かい粒度でそれらの動作を調査します。
私たちの目的は、さまざまなアプローチで得られた公平なモデル間の違いを特徴づけることです。
公平性と正確性において同等のパフォーマンスを示した場合、さまざまなバイアス軽減アプローチは、同様の数の個人に影響を与えますか?
彼らは同様の方法で偏見を軽減していますか?
モデルのバイアスを取り除くとき、それらは同じ個人に影響を与えますか?
私たちの調査結果は、バイアス緩和アプローチは、影響を受ける個人の数と対象となる集団の両方において、戦略が大きく異なることを示しています。
さらに驚くべきことに、これらの結果は、同じ緩和アプローチの複数回の実行にも当てはまることを示しています。
これらの調査結果は、現在のグループの公平性指標の限界、およびバイアス緩和プロセス全体の恣意性、したがって不公平性について疑問を投げかけています。
要約(オリジナル)
Most works on the fairness of machine learning systems focus on the blind optimization of common fairness metrics, such as Demographic Parity and Equalized Odds. In this paper, we conduct a comparative study of several bias mitigation approaches to investigate their behaviors at a fine grain, the prediction level. Our objective is to characterize the differences between fair models obtained with different approaches. With comparable performances in fairness and accuracy, are the different bias mitigation approaches impacting a similar number of individuals? Do they mitigate bias in a similar way? Do they affect the same individuals when debiasing a model? Our findings show that bias mitigation approaches differ a lot in their strategies, both in the number of impacted individuals and the populations targeted. More surprisingly, we show these results even apply for several runs of the same mitigation approach. These findings raise questions about the limitations of the current group fairness metrics, as well as the arbitrariness, hence unfairness, of the whole debiasing process.
arxiv情報
著者 | Natasa Krco,Thibault Laugel,Jean-Michel Loubes,Marcin Detyniecki |
発行日 | 2023-02-14 16:53:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google