要約
データとアルゴリズムは、差別を生み出し、永続させ、異なる治療を永続させる可能性があります。
そのため、アルゴリズムの不公平な結果を定義、検出、排除するアプローチの開発に多大な努力が投資されてきました。
この論文では、公平性のために統計的推論の実行に焦点を当てています。
公平性の推論における以前の研究は、主に特定の予測アルゴリズムの公平性の特性の推測に焦点を当てています。
ここでは、ここではデータの公平性と呼ばれるデータ生成プロセス自体の公平性を評価することにより、公平性推論を拡大します。
ノンパラメトリック推論のための柔軟なフレームワークであるターゲット学習を使用して、データ公平性に関する推論を実行します。
推定器の人口統計パリティ、平等な機会、および条件付き相互情報を導き出します。
さらに、確率的指標の推定量は二重の堅牢性を活用していることがわかります。
アプローチを検証するために、いくつかのシミュレーションを実行し、推定器を実際のデータに適用します。
要約(オリジナル)
Data and algorithms have the potential to produce and perpetuate discrimination and disparate treatment. As such, significant effort has been invested in developing approaches to defining, detecting, and eliminating unfair outcomes in algorithms. In this paper, we focus on performing statistical inference for fairness. Prior work in fairness inference has largely focused on inferring the fairness properties of a given predictive algorithm. Here, we expand fairness inference by evaluating fairness in the data generating process itself, referred to here as data fairness. We perform inference on data fairness using targeted learning, a flexible framework for nonparametric inference. We derive estimators demographic parity, equal opportunity, and conditional mutual information. Additionally, we find that our estimators for probabilistic metrics exploit double robustness. To validate our approach, we perform several simulations and apply our estimators to real data.
arxiv情報
著者 | Alexander Asemota,Giles Hooker |
発行日 | 2025-02-06 18:51:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google