要約
AI システムのバイアスを監視して防止するために、幅広い (統計的) 公平性の尺度を使用できます。
ただし、これらすべての尺度を同時に最適化することは数学的に不可能です。
さらに、公平性の尺度を最適化すると、システムの精度が大幅に低下することがよくあります (Kozodoi et al、2022)。
その結果、これらの決定をどのように行うのか、またその理由を示す実質的な理論が必要になります。
私は、ロールズの公平性という正義の概念を使用することで、公平性の尺度と精度のトレードオフをナビゲートするための基礎を作成できることを示します。
特に、これは、最も脆弱なグループと、そのグループに最も大きな影響を与える公平性措置の種類の両方に焦点を当てた原則的な選択につながります。
これはまた、分配的正義の哲学的説明とこれまで観察されてきた公平性に関する文献との間のギャップの一部を埋め(Kuppler et al, 2021)、公平性の価値を運用可能にするのにも役立ちます。
要約(オリジナル)
In order to monitor and prevent bias in AI systems we can use a wide range of (statistical) fairness measures. However, it is mathematically impossible to optimize for all of these measures at the same time. In addition, optimizing a fairness measure often greatly reduces the accuracy of the system (Kozodoi et al, 2022). As a result, we need a substantive theory that informs us how to make these decisions and for what reasons. I show that by using Rawls’ notion of justice as fairness, we can create a basis for navigating fairness measures and the accuracy trade-off. In particular, this leads to a principled choice focusing on both the most vulnerable groups and the type of fairness measure that has the biggest impact on that group. This also helps to close part of the gap between philosophical accounts of distributive justice and the fairness literature that has been observed (Kuppler et al, 2021) and to operationalise the value of fairness.
arxiv情報
著者 | Stefan Buijsman |
発行日 | 2023-07-17 13:45:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google