要約
サブグループ間の分解された評価は、機械学習モデルの公平性を評価するために重要ですが、その批判的な使用は実務家を誤解させる可能性があります。
サブグループ間の平等なパフォーマンスは、データが関連する集団を代表しているが、実際の格差を反映している場合、公平性の信頼できない尺度であることを示します。
さらに、選択バイアスのためにデータが代表的でない場合、バイアスメカニズムに関する明示的な仮定なしでは、条件付き独立性テストに基づく代替アプローチの両方が無効になる可能性があります。
因果グラフィカルモデルを使用して、異なるデータ生成プロセスの下でサブグループ全体のメトリック安定性を予測します。
私たちのフレームワークは、条件付き独立性テストや加重パフォーマンスの推定を含む、交絡および分布シフトを制御するための明示的な因果的仮定と分析を伴う分解評価を補完することを示唆しています。
これらの調査結果は、分解された評価の遍在性を考慮して、実践者がモデル評価をどのように設計および解釈するかに幅広い意味を持っています。
要約(オリジナル)
Disaggregated evaluation across subgroups is critical for assessing the fairness of machine learning models, but its uncritical use can mislead practitioners. We show that equal performance across subgroups is an unreliable measure of fairness when data are representative of the relevant populations but reflective of real-world disparities. Furthermore, when data are not representative due to selection bias, both disaggregated evaluation and alternative approaches based on conditional independence testing may be invalid without explicit assumptions regarding the bias mechanism. We use causal graphical models to predict metric stability across subgroups under different data generating processes. Our framework suggests complementing disaggregated evaluations with explicit causal assumptions and analysis to control for confounding and distribution shift, including conditional independence testing and weighted performance estimation. These findings have broad implications for how practitioners design and interpret model assessments given the ubiquity of disaggregated evaluation.
arxiv情報
著者 | Stephen R. Pfohl,Natalie Harris,Chirag Nagpal,David Madras,Vishwali Mhasawade,Olawale Salaudeen,Awa Dieng,Shannon Sequeira,Santiago Arciniegas,Lillian Sung,Nnamdi Ezeanochie,Heather Cole-Lewis,Katherine Heller,Sanmi Koyejo,Alexander D’Amour |
発行日 | 2025-06-04 17:40:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google