Metrizing Fairness

要約

2 つの人口統計学的グループのいずれかに属する個人の特性を予測するための教師あり学習の問題を研究し、統計的パリティに従って公正な予測子を探します。
これは、2 つのグループ内の予測の分布がコルモゴロフ距離に関して近いはずであり、学習問題の目的関数でこれら 2 つの分布の非類似性にペナルティを課すことによって公平性が達成されることを意味します。
このホワイト ペーパーでは、コルモゴロフ距離以外の積分確率メトリック (IPM) を使用して不公平を測定することの概念的および計算上の利点を紹介します。
概念的には、任意の IPM のジェネレーターを効用関数のファミリーとして解釈できること、および 2 つの人口統計学的グループの個人の期待効用が異なる場合、この IPM に関する不公平が生じることを示します。
また、不公平性が $\mathcal L^2$ 距離の 2 乗または最大平均不一致の 2 乗によって測定される場合、不公平性正則化予測損失が偏りのない勾配推定量を許容することも証明します。
この場合、公平な学習の問題は、効率的な確率的勾配降下 (SGD) アルゴリズムの影響を受けやすくなります。
実際のデータに対する数値実験は、これらの SGD アルゴリズムが、優れた精度と不公平性のトレードオフを達成するという点で、公平な学習のための最先端の方法よりも優れていることを示しています。
最後に、統計的パリティによって予測精度が向上する条件を特定します。

要約(オリジナル)

We study supervised learning problems for predicting properties of individuals who belong to one of two demographic groups, and we seek predictors that are fair according to statistical parity. This means that the distributions of the predictions within the two groups should be close with respect to the Kolmogorov distance, and fairness is achieved by penalizing the dissimilarity of these two distributions in the objective function of the learning problem. In this paper, we showcase conceptual and computational benefits of measuring unfairness with integral probability metrics (IPMs) other than the Kolmogorov distance. Conceptually, we show that the generator of any IPM can be interpreted as a family of utility functions and that unfairness with respect to this IPM arises if individuals in the two demographic groups have diverging expected utilities. We also prove that the unfairness-regularized prediction loss admits unbiased gradient estimators if unfairness is measured by the squared $\mathcal L^2$-distance or by a squared maximum mean discrepancy. In this case, the fair learning problem is susceptible to efficient stochastic gradient descent (SGD) algorithms. Numerical experiments on real data show that these SGD algorithms outperform state-of-the-art methods for fair learning in that they achieve superior accuracy-unfairness trade-offs — sometimes orders of magnitude faster. Finally, we identify conditions under which statistical parity can improve prediction accuracy.

arxiv情報

著者 Yves Rychener,Bahar Taskesen,Daniel Kuhn
発行日 2023-03-10 16:31:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC, stat.ML パーマリンク