要約
公正な決定のためのトレーニング機械学習モデルは、2つの重要な課題に直面しています。
さまざまな公平性メトリックの非互換性は、別のトレードオフをもたらします。
最近の研究では、観測されたデータ内のバイアスが根本原因として識別され、予測パフォーマンスが公平なデータで測定された場合、公平性と予測パフォーマンスが実際に一致していることを示しています。
保護された属性がターゲット変数に因果的影響を持たない「公正」な世界である発見(架空の規範的に望ましい)世界のフレームワークを使用して、これらの調査結果の因果的説明を提供します。
理論的には、(i)互換性がないとみなされる古典的な公平性メトリックは、発見の世界で自然に満たされている一方で、(ii)公平性は高い予測パフォーマンスと一致することを示しています。
私たちは、発見された世界を近似する因果的な前処理方法を使用して、実際のこれらの理論的洞察からどのように利益を得ることができるかを提案することにより、分析を拡張します。
さらに、Find Worldにアクセスできない実際のユースケースでの前処理を介して、Find Worldの近似を評価する方法を提案します。
シミュレーションと実証研究では、これらの前処理方法が発見の世界を近似し、両方のトレードオフを解決することに成功していることを実証します。
私たちの結果は、実務家が公平性と高い予測パフォーマンスを同時に達成するための実務的なソリューションを提供します。
要約(オリジナル)
Training machine learning models for fair decisions faces two key challenges: The \emph{fairness-accuracy trade-off} results from enforcing fairness which weakens its predictive performance in contrast to an unconstrained model. The incompatibility of different fairness metrics poses another trade-off — also known as the \emph{impossibility theorem}. Recent work identifies the bias within the observed data as a possible root cause and shows that fairness and predictive performance are in fact in accord when predictive performance is measured on unbiased data. We offer a causal explanation for these findings using the framework of the FiND (fictitious and normatively desired) world, a ‘fair’ world, where protected attributes have no causal effects on the target variable. We show theoretically that (i) classical fairness metrics deemed to be incompatible are naturally satisfied in the FiND world, while (ii) fairness aligns with high predictive performance. We extend our analysis by suggesting how one can benefit from these theoretical insights in practice, using causal pre-processing methods that approximate the FiND world. Additionally, we propose a method for evaluating the approximation of the FiND world via pre-processing in practical use cases where we do not have access to the FiND world. In simulations and empirical studies, we demonstrate that these pre-processing methods are successful in approximating the FiND world and resolve both trade-offs. Our results provide actionable solutions for practitioners to achieve fairness and high predictive performance simultaneously.
arxiv情報
著者 | Charlotte Leininger,Simon Rittel,Ludwig Bothmann |
発行日 | 2025-01-24 18:33:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google