Fair Data Representation for Machine Learning at the Pareto Frontier

要約

機械学習による意思決定が日常生活においてますます重要になるにつれ、基礎となるデータ処理の公平性を追求することが不可欠です。
我々は、教師あり学習により予測誤差と統計的差異の間のパレートフロンティアを推定する、公平なデータ表現のための前処理アルゴリズムを提案します。
特に、本研究は最適なアフィン輸送を適用して、前処理データ変形を介した最適な公平な $L^2$ 目的教師あり学習の後処理 Wasserstein-2 重心特性評価にアプローチします。
さらに、学習結果の(機密情報に関する)条件付き分布から重心までの Wasserstein-2 測地線が、$L^2$ 損失と、機密情報に関する機密情報グループ間の平均ペアごとの Wasserstein-2 距離との間のパレートフロンティアを特徴付けることを示します。
学習の成果。
数値シミュレーションは次の利点を強調します。(1) 前処理ステップは、任意の条件付き期待値推定教師あり学習方法と目に見えないデータを組み合わせたものです。
(2) 公正な表現は、機密データに関する残りのデータの推論能力を制限することにより、機密情報を保護します。
(3) 最適なアフィン マップは、高次元データであっても計算効率が高くなります。

要約(オリジナル)

As machine learning powered decision-making becomes increasingly important in our daily lives, it is imperative to strive for fairness in the underlying data processing. We propose a pre-processing algorithm for fair data representation via which supervised learning results in estimations of the Pareto frontier between prediction error and statistical disparity. Particularly, the present work applies the optimal affine transport to approach the post-processing Wasserstein-2 barycenter characterization of the optimal fair $L^2$-objective supervised learning via a pre-processing data deformation. Furthermore, we show that the Wasserstein-2 geodesics from the conditional (on sensitive information) distributions of the learning outcome to their barycenter characterizes the Pareto frontier between $L^2$-loss and the average pairwise Wasserstein-2 distance among sensitive groups on the learning outcome. Numerical simulations underscore the advantages: (1) the pre-processing step is compositive with arbitrary conditional expectation estimation supervised learning methods and unseen data; (2) the fair representation protects the sensitive information by limiting the inference capability of the remaining data with respect to the sensitive data; (3) the optimal affine maps are computationally efficient even for high-dimensional data.

arxiv情報

著者 Shizhou Xu,Thomas Strohmer
発行日 2023-11-24 15:06:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.PR, stat.ML パーマリンク