Individual Fairness under Uncertainty

要約

アルゴリズムの公平性は、機械学習 (ML) アルゴリズムを公平にする研究分野であり、ML の確立された分野です。
ML テクノロジーが社会的影響力の高い分野を含む適用領域を拡大するにつれて、ML システムの構築時に公平性を考慮することが不可欠になります。
しかし、社会的に敏感な応用範囲が広いにもかかわらず、ほとんどの研究はアルゴリズムのバイアスの問題を教師あり学習の本質的な特性として扱っています。つまり、クラスラベルが前提条件として与えられています。
公平性に関する先行研究とは異なり、我々は、クラスラベルの検閲から生じる不確実性の課題に対処する個人の公平性の尺度および対応するアルゴリズムを提案すると同時に、ランク付けの観点からは同様の個人を同様に扱うことを強制し、リプシッツ条件から解放されます。
従来の個人の公平性の定義。
私たちは、この視点が現実世界のアプリケーション展開における公平性研究のより現実的なモデルを表していると主張し、そのような緩和された前提条件での学習がアルゴリズムの公平性をより適切に説明する新しい洞察をどのように引き出すかを示します。
私たちは、他の公平性モデルと比較して提案手法を評価するために 4 つの現実世界のデータセットで実験を実施し、不確実性が存在しても予測パフォーマンスを維持しながら差別を最小限に抑える点でその優位性を実証しました。

要約(オリジナル)

Algorithmic fairness, the research field of making machine learning (ML) algorithms fair, is an established area in ML. As ML technologies expand their application domains, including ones with high societal impact, it becomes essential to take fairness into consideration during the building of ML systems. Yet, despite its wide range of socially sensitive applications, most work treats the issue of algorithmic bias as an intrinsic property of supervised learning, i.e., the class label is given as a precondition. Unlike prior studies in fairness, we propose an individual fairness measure and a corresponding algorithm that deal with the challenges of uncertainty arising from censorship in class labels, while enforcing similar individuals to be treated similarly from a ranking perspective, free of the Lipschitz condition in the conventional individual fairness definition. We argue that this perspective represents a more realistic model of fairness research for real-world application deployment and show how learning with such a relaxed precondition draws new insights that better explains algorithmic fairness. We conducted experiments on four real-world datasets to evaluate our proposed method compared to other fairness models, demonstrating its superiority in minimizing discrimination while maintaining predictive performance with uncertainty present.

arxiv情報

著者 Wenbin Zhang,Zichong Wang,Juyong Kim,Cheng Cheng,Thomas Oommen,Pradeep Ravikumar,Jeremy Weiss
発行日 2023-12-11 18:07:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク