要約
公平性を意識した機械学習 (fairML) に関する文献は増え続けており、ML モデルの公平性を測定する指標を定義し、次のことを保証する方法を提案することによって、自動化された意思決定 (ADM) における機械学習 (ML) 関連の不公平性を軽減することを目的としています。
トレーニングされた ML モデルは、これらの指標で低いスコアを達成します。
ただし、公平性の根底にある概念、つまり公平性とは何かという問題はほとんど議論されておらず、何世紀にもわたる哲学的議論と、ML コミュニティでの最近のこの概念の採用との間には、大きなギャップが残されています。
この研究では、公平性の一貫した概念を形式化し、哲学的考察を ADM システムにおける ML モデルのトレーニングと評価のための正式なフレームワークに変換することで、このギャップを埋めることを試みています。
私たちは、保護属性 (PA) が存在しなくても公平性の問題が発生する可能性があると主張し、公平性と予測パフォーマンスは相容れない相反するものではなく、前者を達成するには後者が必要であると指摘します。
さらに、PA が因果関係を持たない架空の規範的に望ましい (FiND) 世界を提案することにより、PA の存在下で公平性を評価する際に因果関係の考慮がなぜどのように必要なのかを議論します。
実際には、この FiND 世界は、現実世界のデータから PA の因果関係が除去された歪んだ世界によって近似される必要があります。
最後に、fairML の議論において言語的な明瞭さがさらに高まりました。
実際のアプリケーションのためのアルゴリズムの概要を説明し、COMPAS データに関する実験例を示します。
要約(オリジナル)
A growing body of literature in fairness-aware machine learning (fairML) aims to mitigate machine learning (ML)-related unfairness in automated decision-making (ADM) by defining metrics that measure fairness of an ML model and by proposing methods to ensure that trained ML models achieve low scores on these metrics. However, the underlying concept of fairness, i.e., the question of what fairness is, is rarely discussed, leaving a significant gap between centuries of philosophical discussion and the recent adoption of the concept in the ML community. In this work, we try to bridge this gap by formalizing a consistent concept of fairness and by translating the philosophical considerations into a formal framework for the training and evaluation of ML models in ADM systems. We argue that fairness problems can arise even without the presence of protected attributes (PAs), and point out that fairness and predictive performance are not irreconcilable opposites, but that the latter is necessary to achieve the former. Furthermore, we argue why and how causal considerations are necessary when assessing fairness in the presence of PAs by proposing a fictitious, normatively desired (FiND) world in which PAs have no causal effects. In practice, this FiND world must be approximated by a warped world in which the causal effects of the PAs are removed from the real-world data. Finally, we achieve greater linguistic clarity in the discussion of fairML. We outline algorithms for practical applications and present illustrative experiments on COMPAS data.
arxiv情報
著者 | Ludwig Bothmann,Kristina Peters,Bernd Bischl |
発行日 | 2024-11-29 16:01:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google