Bayes-Optimal Fair Classification with Multiple Sensitive Features

要約

通常、ベイズ最適なフェア分類器に関する既存の理論的作業は、通常、単一の(バイナリ)敏感な機能を考慮します。
実際には、個人は多くの場合、複数の敏感な機能によって定義されます。
この論文では、平均差と平均比を含む一般的な近似公平性測定の下で、複数の機密機能のベイズ最適フェア分類器を特徴づけています。
人口統計パリティ、平等な機会、予測の平等、精度パリティなど、既存のグループ公平性の概念のこれらの近似尺度は、ラベルとデリケートな機能の両方で定義された特定のグループの選択レートの線形変換であることを示します。
次に、複数の機密機能のベイズ最適フェア分類子になると、これらのグループメンバーシップ確率の加重合計に依存するインスタンス依存のしきい値ルールになることを特徴づけます。
私たちのフレームワークは、属性と属性ブランドの両方の設定に適用され、均等化されたオッズのような複合公平性の概念に対応できます。
これに基づいて、処理と後処理によるベイズ最適な公正分類のための2つの実用的なアルゴリズムを提案します。
私たちの方法は、既存の方法に好意的に比較されることを経験的に示します。

要約(オリジナル)

Existing theoretical work on Bayes-optimal fair classifiers usually considers a single (binary) sensitive feature. In practice, individuals are often defined by multiple sensitive features. In this paper, we characterize the Bayes-optimal fair classifier for multiple sensitive features under general approximate fairness measures, including mean difference and mean ratio. We show that these approximate measures for existing group fairness notions, including Demographic Parity, Equal Opportunity, Predictive Equality, and Accuracy Parity, are linear transformations of selection rates for specific groups defined by both labels and sensitive features. We then characterize that Bayes-optimal fair classifiers for multiple sensitive features become instance-dependent thresholding rules that rely on a weighted sum of these group membership probabilities. Our framework applies to both attribute-aware and attribute-blind settings and can accommodate composite fairness notions like Equalized Odds. Building on this, we propose two practical algorithms for Bayes-optimal fair classification via in-processing and post-processing. We show empirically that our methods compare favorably to existing methods.

arxiv情報

著者 Yi Yang,Yinghui Huang,Xiangyu Chang
発行日 2025-05-01 16:12:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク