要約
分散シフトに対する堅牢性と公平性は、現代の機械学習モデルに求められる 2 つの重要な要望として独立して浮上しています。
これら 2 つの要望は関連しているように見えますが、実際にはそれらの間の関係が不明瞭であることがよくあります。
ここでは、分類器への入力 (画像など) がターゲット ラベルと保護された属性の関数として生成されると想定される反因果的予測タスクに焦点を当て、因果的レンズを通してこれらの関係について説明します。
この視点を採用することで、共通の公平性基準である分離と、共通の堅牢性の概念であるリスク不変性との間の明確な関係を導き出します。
これらのつながりは、反因果的な設定で分離基準を適用するための新たな動機を提供し、公平性とパフォーマンスのトレードオフに関する古い議論に情報を与えます。
さらに、我々の調査結果は、ロバスト性を動機とするアプローチを分離の強制に使用でき、分離を直接強制するように設計された方法よりも実際にはうまく機能することが多いことを示唆しています。
私たちは、医療データセットを使用して、性グループ間の有病率の違いが公平性の緩和を動機付ける環境で、X 線から肺炎を検出するというタスクに関する発見を経験的に検証します。
私たちの調査結果は、公平性基準を選択および強制する際に因果構造を考慮することの重要性を強調しています。
要約(オリジナル)
Robustness to distribution shift and fairness have independently emerged as two important desiderata required of modern machine learning models. While these two desiderata seem related, the connection between them is often unclear in practice. Here, we discuss these connections through a causal lens, focusing on anti-causal prediction tasks, where the input to a classifier (e.g., an image) is assumed to be generated as a function of the target label and the protected attribute. By taking this perspective, we draw explicit connections between a common fairness criterion – separation – and a common notion of robustness – risk invariance. These connections provide new motivation for applying the separation criterion in anticausal settings, and inform old discussions regarding fairness-performance tradeoffs. In addition, our findings suggest that robustness-motivated approaches can be used to enforce separation, and that they often work better in practice than methods designed to directly enforce separation. Using a medical dataset, we empirically validate our findings on the task of detecting pneumonia from X-rays, in a setting where differences in prevalence across sex groups motivates a fairness mitigation. Our findings highlight the importance of considering causal structure when choosing and enforcing fairness criteria.
arxiv情報
著者 | Maggie Makar,Alexander D’Amour |
発行日 | 2023-09-12 14:46:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google