要約
アルゴリズムの公平性に関する一般的な概念である均等オッズは、人種や性別などの影響を受けやすい変数が、真の結果を条件とする際にアルゴリズムの予測に不当な影響を与えないようにすることを目的としている。急速な進歩にもかかわらず、現在の研究は、主に単一の敏感な属性によって引き起こされる均等オッズ違反に焦点を当てており、複数の属性を同時に考慮するという課題はほとんど未解決のままである。我々は、敵対的学習と新しい逆条件付き並べ替えスキームを統合した、処理中の公平性を考慮した学習アプローチFairICPを導入することで、このギャップを埋める。FairICPは、複雑で多次元的なセンシティブ属性によって記述される公平性の条件下で、平等なオッズを促進するための、理論的に正当化された、柔軟で効率的なスキームを提供する。我々の手法の有効性と適応性は、シミュレーション研究と実データセットの経験的分析の両方を通じて実証されている。
要約(オリジナル)
Equalized odds, as a popular notion of algorithmic fairness, aims to ensure that sensitive variables, such as race and gender, do not unfairly influence the algorithm’s prediction when conditioning on the true outcome. Despite rapid advancements, current research primarily focuses on equalized odds violations caused by a single sensitive attribute, leaving the challenge of simultaneously accounting for multiple attributes largely unaddressed. We bridge this gap by introducing an in-processing fairness-aware learning approach, FairICP, which integrates adversarial learning with a novel inverse conditional permutation scheme. FairICP offers a theoretically justified, flexible, and efficient scheme to promote equalized odds under fairness conditions described by complex and multidimensional sensitive attributes. The efficacy and adaptability of our method are demonstrated through both simulation studies and empirical analyses of real-world datasets.
arxiv情報
著者 | Yuheng Lai,Leying Guan |
発行日 | 2024-11-01 16:03:23+00:00 |
arxivサイト | arxiv_id(pdf) |