Causal Fairness under Unobserved Confounding: A Neural Sensitivity Framework

要約

機械学習予測の公平性は、法的、倫理的、社会的な理由から、実際には広く求められています。
既存の研究は、通常、観察されていない交絡が存在しない設定に焦点を当てていますが、たとえ観察されていない交絡が因果関係の公平性の深刻な違反、したがって不公平な予測につながる可能性があります。
この研究では、観察されていない交絡に対する因果的公平性の感度を分析します。
私たちの貢献は 3 つあります。
まず、観察されていない交絡のさまざまなソースの下で因果的公平性指標の限界を導き出します。
これにより、実務者は、公平性が重要なアプリケーションにおける観察されない交絡に対する機械学習モデルの感度を調べることができます。
第 2 に、公平な予測を学習するための新しいニューラル フレームワークを提案します。これにより、観察されていない交絡によって因果的公平性が侵害される可能性がある範囲について最悪の場合の保証を提供できるようになります。
第三に、懲役刑の予測に関する実際のケーススタディを含む一連の実験でフレームワークの有効性を実証します。
私たちの知る限り、私たちの研究は、観察されていない交絡の下で因果的公平性を研究した最初の研究です。
この目的を達成するために、私たちの研究は、一か八かのアプリケーションにおける予測の公平性を確保するための反駁戦略として直接実用的な価値があります。

要約(オリジナル)

Fairness for machine learning predictions is widely required in practice for legal, ethical, and societal reasons. Existing work typically focuses on settings without unobserved confounding, even though unobserved confounding can lead to severe violations of causal fairness and, thus, unfair predictions. In this work, we analyze the sensitivity of causal fairness to unobserved confounding. Our contributions are three-fold. First, we derive bounds for causal fairness metrics under different sources of unobserved confounding. This enables practitioners to examine the sensitivity of their machine learning models to unobserved confounding in fairness-critical applications. Second, we propose a novel neural framework for learning fair predictions, which allows us to offer worst-case guarantees of the extent to which causal fairness can be violated due to unobserved confounding. Third, we demonstrate the effectiveness of our framework in a series of experiments, including a real-world case study about predicting prison sentences. To the best of our knowledge, ours is the first work to study causal fairness under unobserved confounding. To this end, our work is of direct practical value as a refutation strategy to ensure the fairness of predictions in high-stakes applications.

arxiv情報

著者 Maresa Schröder,Dennis Frauen,Stefan Feuerriegel
発行日 2024-02-27 16:39:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG, stat.ME パーマリンク