How Biased are Your Features?: Computing Fairness Influence Functions with Global Sensitivity Analysis

要約

機械学習における公平性は、利害の大きい意思決定タスクに広く適用されているため、重要な焦点となっている。そのため、分類器の偏りを定量化し緩和することは、機械学習における公平性の中心的な関心事である。本稿では、データセット内の様々な特徴が分類器の偏りに与える影響を定量化することを目的とする。そのために、公平性影響関数(FIF:Fairness Influence Function)を導入する。この関数は、バイアスを個々の特徴間の成分と複数の特徴の交点に分解する。重要なアイデアは、既存のグループ公平性メトリクスを、分類器の予測におけるスケールされた条件付き分散の差として表現し、グローバル感度分析に従って分散の分解を適用することである。FIFを推定するために、局所回帰に従って分類器の予測値の分散分解を適用するアルゴリズムFairXplainerをインスタンス化する。実験は、FairXplainerが個々の特徴と交差特徴のFIFを捕捉し、FIFに基づくバイアスのより良い近似を提供し、FIFと公正介入とのより高い相関を示し、分類器における公正肯定的/罰的行動によるバイアスの変化を検出することを実証する。 コードはhttps://github.com/ReAILe/bias-explainer。

要約(オリジナル)

Fairness in machine learning has attained significant focus due to the widespread application in high-stake decision-making tasks. Unregulated machine learning classifiers can exhibit bias towards certain demographic groups in data, thus the quantification and mitigation of classifier bias is a central concern in fairness in machine learning. In this paper, we aim to quantify the influence of different features in a dataset on the bias of a classifier. To do this, we introduce the Fairness Influence Function (FIF). This function breaks down bias into its components among individual features and the intersection of multiple features. The key idea is to represent existing group fairness metrics as the difference of the scaled conditional variances in the classifier’s prediction and apply a decomposition of variance according to global sensitivity analysis. To estimate FIFs, we instantiate an algorithm FairXplainer that applies variance decomposition of classifier’s prediction following local regression. Experiments demonstrate that FairXplainer captures FIFs of individual feature and intersectional features, provides a better approximation of bias based on FIFs, demonstrates higher correlation of FIFs with fairness interventions, and detects changes in bias due to fairness affirmative/punitive actions in the classifier. The code is available at https://github.com/ReAILe/bias-explainer.

arxiv情報

著者 Bishwamittra Ghosh,Debabrota Basu,Kuldeep S. Meel
発行日 2023-07-03 00:07:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク