要約
アルゴリズムの公平性の一般的な概念である均等化オッズは、実際の結果に基づいて条件付けを行う際に、人種や性別などの敏感な変数がアルゴリズムの予測に不当な影響を与えないようにすることを目的としています。
急速な進歩にもかかわらず、現在の研究のほとんどは、1 つのデリケートな属性によって引き起こされる均等化オッズの違反に焦点を当てており、複数の属性を同時に説明するという課題は十分に対処されていません。
私たちは、敵対的学習と新しい逆条件付き置換を統合する公平性学習アプローチを導入することで、このギャップに対処します。
このアプローチは、データ型が混在している可能性がある複数の機密属性を効果的かつ柔軟に処理します。
私たちの方法の有効性と柔軟性は、シミュレーション研究と現実世界のデータセットの実証分析の両方を通じて実証されています。
要約(オリジナル)
Equalized odds, as a popular notion of algorithmic fairness, aims to ensure that sensitive variables, such as race and gender, do not unfairly influence the algorithm prediction when conditioning on the true outcome. Despite rapid advancements, most of the current research focuses on the violation of equalized odds caused by one sensitive attribute, leaving the challenge of simultaneously accounting for multiple attributes under-addressed. We address this gap by introducing a fairness learning approach that integrates adversarial learning with a novel inverse conditional permutation. This approach effectively and flexibly handles multiple sensitive attributes, potentially of mixed data types. The efficacy and flexibility of our method are demonstrated through both simulation studies and empirical analysis of real-world datasets.
arxiv情報
著者 | Yuheng Lai,Leying Guan |
発行日 | 2024-04-09 16:17:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google