要約
たとえ善意で導入されたとしても、機械学習手法は社会的偏見を永続させたり、増幅したり、さらには作成したりする可能性があります.
機械学習モデルの(非)差別的性質を測定する方法として、(不)公平性の尺度が提案されています。
ただし、差別的な効果を引き起こす保護された属性のプロキシは、対処するのが難しいままです。
この作業では、グループごとの人口統計学的パリティ違反を測定し、グループ間差別の原因を検査できるようにする新しいアルゴリズムアプローチを提案します。
私たちの方法は、説明空間、入力データまたは予測分布の主要な空間よりも機密性の高い監査を可能にする有益な空間、および
理論的な人口統計学的パリティ監査の保証。
実世界のデータの数学的分析、合成例、および実験的評価を提供します。
メソッド、ルーチン、チュートリアルを含むオープンソースの Python パッケージをリリースします。
要約(オリジナル)
Even if deployed with the best intentions, machine learning methods can perpetuate, amplify or even create social biases. Measures of (un-)fairness have been proposed as a way to gauge the (non-)discriminatory nature of machine learning models. However, proxies of protected attributes causing discriminatory effects remain challenging to address. In this work, we propose a new algorithmic approach that measures group-wise demographic parity violations and allows us to inspect the causes of inter-group discrimination. Our method relies on the novel idea of measuring the dependence of a model on the protected attribute based on the explanation space, an informative space that allows for more sensitive audits than the primary space of input data or prediction distributions, and allowing for the assertion of theoretical demographic parity auditing guarantees. We provide a mathematical analysis, synthetic examples, and experimental evaluation of real-world data. We release an open-source Python package with methods, routines, and tutorials.
arxiv情報
著者 | Carlos Mougan,Laura State,Antonio Ferrara,Salvatore Ruggieri,Steffen Staab |
発行日 | 2023-03-14 16:19:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google