A statistical approach to detect sensitive features in a group fairness setting

要約

社会的影響の大きい意思決定支援システムで機械学習モデルを使用すると、異なるグループに対して不公平な(disparate)結果が出ることが懸念された。このような不公平な判断を評価する場合、一般的には、敏感とされる特徴のセットによって決定される、あらかじめ定義されたグループに依存する。しかし、このようなアプローチは主観的であり、これらの特徴が敏感とみなされる唯一のものであることや、不公平な(格差のある)結果を伴うことを保証するものではありません。 本論文では、不公平な結果を検証するために訓練されたモデルを必要としない、敏感な特徴を自動的に認識するタスクに対処するための前処理ステップを提案します。本提案は、変数分布の統計的依存性を測定するHilber-Schmidt独立性基準に基づいている。ラベルベクトルと候補の間の依存性が敏感な特徴について高い場合、この特徴によって提供される情報は、グループ間で格差のある性能測定を伴うと仮定する。我々の実証結果は、この仮説を実証し、文献で敏感とされるいくつかの特徴が、必ずしも不公平な結果をもたらすわけではないことを示すものである。

要約(オリジナル)

The use of machine learning models in decision support systems with high societal impact raised concerns about unfair (disparate) results for different groups of people. When evaluating such unfair decisions, one generally relies on predefined groups that are determined by a set of features that are considered sensitive. However, such an approach is subjective and does not guarantee that these features are the only ones to be considered as sensitive nor that they entail unfair (disparate) outcomes. In this paper, we propose a preprocessing step to address the task of automatically recognizing sensitive features that does not require a trained model to verify unfair results. Our proposal is based on the Hilber-Schmidt independence criterion, which measures the statistical dependence of variable distributions. We hypothesize that if the dependence between the label vector and a candidate is high for a sensitive feature, then the information provided by this feature will entail disparate performance measures between groups. Our empirical results attest our hypothesis and show that several features considered as sensitive in the literature do not necessarily entail disparate (unfair) results.

arxiv情報

著者 Guilherme Dean Pelegrina,Miguel Couceiro,Leonardo Tomazeli Duarte
発行日 2023-05-11 17:30:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CY, cs.LG パーマリンク