A Survey on Intersectional Fairness in Machine Learning: Notions, Mitigation, and Challenges

要約

機械学習システムの普及、特に刑事判決や銀行融資など、より意思決定が重要なアプリケーションでの採用により、公平性の意味合いに関する懸念が高まっている。このような差別を緩和し、測定するためのアルゴリズムや測定基準が開発されてきました。さらに最近では、人種や性別といった複数の敏感な属性を一緒に含む、交差点バイアスと呼ばれる、より困難なバイアスの形態が特定されています。本調査では、交差点型フェアネスに関する最新動向をレビューする。また、交差点における公平性の概念とその緩和のための分類法を提示する。最後に、重要な課題を明らかにし、研究者に今後の方向性を示すガイドラインを提供する。

要約(オリジナル)

The widespread adoption of Machine Learning systems, especially in more decision-critical applications such as criminal sentencing and bank loans, has led to increased concerns about fairness implications. Algorithms and metrics have been developed to mitigate and measure these discriminations. More recently, works have identified a more challenging form of bias called intersectional bias, which encompasses multiple sensitive attributes, such as race and gender, together. In this survey, we review the state-of-the-art in intersectional fairness. We present a taxonomy for intersectional notions of fairness and mitigation. Finally, we identify the key challenges and provide researchers with guidelines for future directions.

arxiv情報

著者 Usman Gohar,Lu Cheng
発行日 2023-05-11 16:49:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CY, cs.LG パーマリンク