The Unfairness of Fair Machine Learning: Levelling down and strict egalitarianism by default

要約

近年、機械学習 (ML) の公平性は、研究開発の非常に活発な分野として浮上しています。
ほとんどの場合、公平性は簡単な言葉で定義されます。公平性とは、元のシステムの精度を可能な限り維持しながら、人口統計グループ間のパフォーマンスまたは結果のギャップを減らすことを意味します。
公平性の尺度による平等の過度の単純化は厄介です。
現在の公平性対策の多くは、公平性とパフォーマンスの低下、または「レベルダウン」の両方に悩まされています。公平性は、すべてのグループを悪化させるか、パフォーマンスの良いグループを最悪のレベルまで下げることによって達成されます。
スティグマの傷、連帯の喪失、不平等な懸念、実質的な平等の機会の逸失を通じて、物質的または関係的な面ですべての人を悪化させることによってのみ公平が達成される場合、「公平」という漠然とした概念を翻訳する際に何かが間違っているように見える.
」を実践します。
このホワイト ペーパーでは、fairML 全体でレベルダウンの原因と普及率を調査し、平等と分配的正義の哲学的および法的な理論、ならびに平等法の法学に基づいて、考えられる正当化と批判を探ります。
fairML は現在、実際にレベルダウンを正当化するために必要な種類の測定、レポート、または分析に関与していないことがわかりました。
fairML における実質的な平等に向けた第一歩を提案します。それは、公平性制約として、許容可能な最小の害のしきい値、または「最小レートの制約」を強制することにより、設計によってシステムを「レベルアップ」することです。
同様に、現在この分野で優勢な過度に単純化された平等主義の枠組みに対抗し、将来の議論を実質的な平等の機会に向けて、デフォルトで厳格な平等主義から遠ざけるために、代替の害に基づくフレームワークを提案します。
N.B.
短縮された抄録。完全な抄録については論文を参照してください。

要約(オリジナル)

In recent years fairness in machine learning (ML) has emerged as a highly active area of research and development. Most define fairness in simple terms, where fairness means reducing gaps in performance or outcomes between demographic groups while preserving as much of the accuracy of the original system as possible. This oversimplification of equality through fairness measures is troubling. Many current fairness measures suffer from both fairness and performance degradation, or ‘levelling down,’ where fairness is achieved by making every group worse off, or by bringing better performing groups down to the level of the worst off. When fairness can only be achieved by making everyone worse off in material or relational terms through injuries of stigma, loss of solidarity, unequal concern, and missed opportunities for substantive equality, something would appear to have gone wrong in translating the vague concept of ‘fairness’ into practice. This paper examines the causes and prevalence of levelling down across fairML, and explore possible justifications and criticisms based on philosophical and legal theories of equality and distributive justice, as well as equality law jurisprudence. We find that fairML does not currently engage in the type of measurement, reporting, or analysis necessary to justify levelling down in practice. We propose a first step towards substantive equality in fairML: ‘levelling up’ systems by design through enforcement of minimum acceptable harm thresholds, or ‘minimum rate constraints,’ as fairness constraints. We likewise propose an alternative harms-based framework to counter the oversimplified egalitarian framing currently dominant in the field and push future discussion more towards substantive equality opportunities and away from strict egalitarianism by default. N.B. Shortened abstract, see paper for full abstract.

arxiv情報

著者 Brent Mittelstadt,Sandra Wachter,Chris Russell
発行日 2023-02-20 16:20:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク