The Neutrality Fallacy: When Algorithmic Fairness Interventions are (Not) Positive Action

要約

機械学習システムの不公平な出力を特定し、軽減するために、さまざまな指標と介入が開発されています。
個人や組織には差別を避ける義務がある一方、公平性を意識した機械学習介入の使用は、欧州連合(EU)の差別禁止法に基づく「アルゴリズムによるポジティブアクション」に相当するとも言われています。
欧州連合司法裁判所はポジティブ・アクションの合法性の評価に関して厳格であるため、これは公正な介入の実施を希望する者に多大な法的負担を課すことになる。
この論文では、アルゴリズムによる公平性介入は、多くの場合、積極的な行動の手段ではなく、差別を防ぐ手段として解釈されるべきであると提案します。
具体的には、このカテゴリの間違いは多くの場合、中立性の誤謬、つまり公平性を意識したアルゴリズムによる意思決定の中立性に関する誤った仮定に起因すると考えられます。
私たちの調査結果は、アルゴリズムによる意思決定の文脈において、差別を避けるという否定的な義務が十分であるかどうかという問題を提起しています。
したがって、アルゴリズムによる意思決定と公平なML介入のためのより適切な枠組みとして、「害を与えない」という義務から積極的に「害を与えない」という積極的な義務に移行することを提案します。

要約(オリジナル)

Various metrics and interventions have been developed to identify and mitigate unfair outputs of machine learning systems. While individuals and organizations have an obligation to avoid discrimination, the use of fairness-aware machine learning interventions has also been described as amounting to ‘algorithmic positive action’ under European Union (EU) non-discrimination law. As the Court of Justice of the European Union has been strict when it comes to assessing the lawfulness of positive action, this would impose a significant legal burden on those wishing to implement fair-ml interventions. In this paper, we propose that algorithmic fairness interventions often should be interpreted as a means to prevent discrimination, rather than a measure of positive action. Specifically, we suggest that this category mistake can often be attributed to neutrality fallacies: faulty assumptions regarding the neutrality of fairness-aware algorithmic decision-making. Our findings raise the question of whether a negative obligation to refrain from discrimination is sufficient in the context of algorithmic decision-making. Consequently, we suggest moving away from a duty to ‘not do harm’ towards a positive obligation to actively ‘do no harm’ as a more adequate framework for algorithmic decision-making and fair ml-interventions.

arxiv情報

著者 Hilde Weerts,Raphaële Xenidis,Fabien Tarissan,Henrik Palmer Olsen,Mykola Pechenizkiy
発行日 2024-04-18 12:44:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY パーマリンク