要約
この論文では、モデルに依存せず、テスト時に機密属性を必要としない新しい後処理アルゴリズムを紹介します。
さらに、私たちのアルゴリズムは、バイアスのある予測とバイアスを緩和した予測の間で最小限の変更を強制するように明示的に設計されています。
この特性は非常に望ましいものではありますが、公平性に関する文献では明示的な目的として優先されることはほとんどありません。
私たちのアプローチは、ブラックボックス分類器によって生成された確率スコアのロジット値に適用される乗算係数を利用します。
私たちは、公平性研究で広く使用されている 2 つのデータセットで他の 4 つのバイアス除去アルゴリズムとそのパフォーマンスを比較し、経験的評価を通じてこの方法の有効性を実証します。
要約(オリジナル)
In this paper, we introduce a novel post-processing algorithm that is both model-agnostic and does not require the sensitive attribute at test time. In addition, our algorithm is explicitly designed to enforce minimal changes between biased and debiased predictions; a property that, while highly desirable, is rarely prioritized as an explicit objective in fairness literature. Our approach leverages a multiplicative factor applied to the logit value of probability scores produced by a black-box classifier. We demonstrate the efficacy of our method through empirical evaluations, comparing its performance against other four debiasing algorithms on two widely used datasets in fairness research.
arxiv情報
著者 | Federico Di Gennaro,Thibault Laugel,Vincent Grari,Xavier Renard,Marcin Detyniecki |
発行日 | 2024-08-29 15:59:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google