Counterfactual Fairness by Combining Factual and Counterfactual Predictions

要約

ヘルスケアや雇用などのリスクの高い分野では、意思決定における機械学習 (ML) の役割により、公平性に関する重大な懸念が生じます。
この研究は、反事実的公平性 (CF) に焦点を当てており、個人に対する ML モデルの結果は、その個人が異なる人口統計グループに属していても変わらないはずであると仮定しています。
これまでの研究では、CF を保証する方法が提案されてきました。
それにもかかわらず、モデルの予測パフォーマンスに対するそれらの影響はほとんど不明のままです。
このギャップを埋めるために、モデルに依存しない方法で CF と予測パフォーマンスの間の固有のトレードオフに関する理論的研究を提供します。
まず、最適ではあるが潜在的に不公平な予測変数を、最適性を失うことなく公平な予測変数にキャストするための、シンプルだが効果的な方法を提案します。
CFを達成するための過剰リスクを分析することで、この固有のトレードオフを定量化します。
不完全な因果関係の知識のみにアクセスした場合のメソッドのパフォーマンスに関するさらなる分析も行われます。
これに基づいて、そのようなシナリオに適用できるパフォーマンスの高いアルゴリズムを提案します。
合成データセットと半合成データセットの両方での実験により、私たちの分析と手法の有効性が実証されました。

要約(オリジナル)

In high-stake domains such as healthcare and hiring, the role of machine learning (ML) in decision-making raises significant fairness concerns. This work focuses on Counterfactual Fairness (CF), which posits that an ML model’s outcome on any individual should remain unchanged if they had belonged to a different demographic group. Previous works have proposed methods that guarantee CF. Notwithstanding, their effects on the model’s predictive performance remains largely unclear. To fill in this gap, we provide a theoretical study on the inherent trade-off between CF and predictive performance in a model-agnostic manner. We first propose a simple but effective method to cast an optimal but potentially unfair predictor into a fair one without losing the optimality. By analyzing its excess risk in order to achieve CF, we quantify this inherent trade-off. Further analysis on our method’s performance with access to only incomplete causal knowledge is also conducted. Built upon it, we propose a performant algorithm that can be applied in such scenarios. Experiments on both synthetic and semi-synthetic datasets demonstrate the validity of our analysis and methods.

arxiv情報

著者 Zeyu Zhou,Tianci Liu,Ruqi Bai,Jing Gao,Murat Kocaoglu,David I. Inouye
発行日 2024-11-08 17:40:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク