Group-blind optimal transport to group parity and its constrained variants

要約

公平性は、機械学習の領域において極めて重要な役割を果たします。特に、性別や人種などの機密性の高い属性によって分類されたグループに対応する場合に重要です。
公正な学習における一般的なアルゴリズムは、少なくともトレーニング プロセスにおいては、主にこれらの機密属性のアクセシビリティまたは推定に依存しています。
ソース データ内の両方のグループの特徴分布を揃えて、マップの計算時に個々のサンプルの protected 属性の値を必要とせずに、(人口統計上の)グループ パリティを達成する単一のグループ ブラインド投影マップを設計します。
使用。
代わりに、私たちのアプローチは、ボーダー母集団内の特権グループと非特権グループの特徴分布と、ソースデータが母集団の不偏表現であるという基本的な仮定を利用します。
合成データと実データの数値結果を示します。

要約(オリジナル)

Fairness holds a pivotal role in the realm of machine learning, particularly when it comes to addressing groups categorised by sensitive attributes, e.g., gender, race. Prevailing algorithms in fair learning predominantly hinge on accessibility or estimations of these sensitive attributes, at least in the training process. We design a single group-blind projection map that aligns the feature distributions of both groups in the source data, achieving (demographic) group parity, without requiring values of the protected attribute for individual samples in the computation of the map, as well as its use. Instead, our approach utilises the feature distributions of the privileged and unprivileged groups in a boarder population and the essential assumption that the source data are unbiased representation of the population. We present numerical results on synthetic data and real data.

arxiv情報

著者 Quan Zhou,Jakub Marecek
発行日 2023-10-17 17:14:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC パーマリンク