Practical Bias Mitigation through Proxy Sensitive Attribute Label Generation

要約

トレーニングされた機械学習システムのバイアスに対処するには、多くの場合、機密属性へのアクセスが必要になります。
実際には、法規制や政策規制、または特定の人口統計のデータが利用できないため、これらの属性は利用できません。
既存のバイアス緩和アルゴリズムは、公平性を実現するために機密属性へのアクセスが必要なため、現実世界のシナリオへの適用が制限されています。
この研究作業では、私たちが提案する教師なしプロキシ依存属性ラベル生成手法を通じて、このボトルネックに対処することを目指しています。
この目的に向けて、教師なし埋め込み生成とそれに続くプロキシ依存ラベルを取得するためのクラスタリングという 2 段階のアプローチを提案します。
私たちの研究の有効性は、バイアスが機密属性と相関する非機密属性を介して伝播し、高次元の潜在空間にマッピングされると、データ内に存在するさまざまな人口統計グループのクラスターが生成されるという仮定に依存しています。
実験結果は、Fair Mixup や Adversarial Debiasing などの既存のアルゴリズムを使用したバイアス軽減が、真の機密属性を使用した場合と比較した場合、派生プロキシ ラベルで同等の結果をもたらすことを示しています。

要約(オリジナル)

Addressing bias in the trained machine learning system often requires access to sensitive attributes. In practice, these attributes are not available either due to legal and policy regulations or data unavailability for a given demographic. Existing bias mitigation algorithms are limited in their applicability to real-world scenarios as they require access to sensitive attributes to achieve fairness. In this research work, we aim to address this bottleneck through our proposed unsupervised proxy-sensitive attribute label generation technique. Towards this end, we propose a two-stage approach of unsupervised embedding generation followed by clustering to obtain proxy-sensitive labels. The efficacy of our work relies on the assumption that bias propagates through non-sensitive attributes that are correlated to the sensitive attributes and, when mapped to the high dimensional latent space, produces clusters of different demographic groups that exist in the data. Experimental results demonstrate that bias mitigation using existing algorithms such as Fair Mixup and Adversarial Debiasing yields comparable results on derived proxy labels when compared against using true sensitive attributes.

arxiv情報

著者 Bhushan Chaudhary,Anubha Pandey,Deepak Bhatt,Darshika Tiwari
発行日 2023-12-26 10:54:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG パーマリンク