要約
機械学習モデルは、さまざまなドメインにわたる複雑な問題を解決する上で、卓越した能力を発揮してきました。
それにもかかわらず、これらのモデルは時々偏った意思決定を示し、異なるグループ間での扱いの格差につながる可能性があります。
公平性に関する広範な研究にもかかわらず、意思決定の結果に対する多変量および連続的な敏感な変数の微妙な影響については、依然として十分に研究されていません。
我々は、一連の敏感な連続変数の影響を除去するように設計された新しいデータ前処理アルゴリズムである直交バイアス (OB) を導入し、それによって機械学習アプリケーションにおける反事実的公平性を促進します。
私たちのアプローチは構造因果モデル (SCM) 内の共同正規分布の仮定に基づいており、データが機密変数と相関していないことを保証することで反事実的な公平性が達成できることを証明しています。
OB アルゴリズムはモデルに依存せず、幅広い機械学習モデルとタスクに対応し、正則化によって数値安定性を強化するスパース バリアントが含まれています。
成人の収入や COMPAS の再犯データセットを含む、シミュレートされた現実世界のデータセットに対する実証的評価を通じて、私たちの方法論は、精度を損なうことなく、より公平な結果を可能にする能力を実証しています。
要約(オリジナル)
Machine learning models have shown exceptional prowess in solving complex issues across various domains. Nonetheless, these models can sometimes exhibit biased decision-making, leading to disparities in treatment across different groups. Despite the extensive research on fairness, the nuanced effects of multivariate and continuous sensitive variables on decision-making outcomes remain insufficiently studied. We introduce a novel data pre-processing algorithm, Orthogonal to Bias (OB), designed to remove the influence of a group of continuous sensitive variables, thereby facilitating counterfactual fairness in machine learning applications. Our approach is grounded in the assumption of a jointly normal distribution within a structural causal model (SCM), proving that counterfactual fairness can be achieved by ensuring the data is uncorrelated with sensitive variables. The OB algorithm is model-agnostic, catering to a wide array of machine learning models and tasks, and includes a sparse variant to enhance numerical stability through regularization. Through empirical evaluation on simulated and real-world datasets – including the adult income and the COMPAS recidivism datasets – our methodology demonstrates its capacity to enable fairer outcomes without compromising accuracy.
arxiv情報
著者 | Shuyi Chen,Shixiang Zhu |
発行日 | 2024-03-26 16:40:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google