要約
MLシステムがより多くの実世界のシナリオに広く適用されるようになり、MLモデルに隠された差別が人間の生活に直接影響するようになったため、MLモデルに隠された根本的な差別に対する懸念が高まっている。一般的に使用されているグループ公平性尺度や、アンサンブル学習を組み合わせた公平性を考慮した手法など、公平性を高めるための多くの手法が開発されてきた。しかし、既存の公平性尺度は、集団公平性か個人公平性のどちらか一方にしか焦点を当てることができず、その両立が難しいことから、どちらか一方を満たしたとしても偏りが残る可能性がある。さらに、公平性を高めるための既存のメカニズムは、通常、有効性を示すための経験的な結果を提示しているが、公平性を一定の理論的保証をもって高めることができるかどうかを議論しているものはほとんどない。これらの問題に対処するため、本論文では、個人と集団の両方の公平性を反映する、差別的リスクと名付けられた公平性品質尺度を提案する。さらに、提案する尺度の特性を調べ、理論的な学習保証とアンサンブルの組み合わせによって公平性を高めることができることを示すために、一次および二次のオラクル境界を提案する。なお、この分析は二値分類と多値分類の両方に適している。本論文では、提案する尺度を利用するための刈り込み手法も提案し、提案手法の有効性を評価するために包括的な実験を行う。
要約(オリジナル)
The concern about underlying discrimination hidden in ML models is increasing, as ML systems have been widely applied in more and more real-world scenarios and any discrimination hidden in them will directly affect human life. Many techniques have been developed to enhance fairness including commonly-used group fairness measures and several fairness-aware methods combining ensemble learning. However, existing fairness measures can only focus on one aspect — either group or individual fairness, and the hard compatibility among them indicates a possibility of remaining biases even if one of them is satisfied. Moreover, existing mechanisms to boost fairness usually present empirical results to show validity, yet few of them discuss whether fairness can be boosted with certain theoretical guarantees. To address these issues, we propose a fairness quality measure named discriminative risk in this paper to reflect both individual and group fairness aspects. Furthermore, we investigate the properties of the proposed measure and propose first- and second-order oracle bounds to show that fairness can be boosted via ensemble combination with theoretical learning guarantees. Note that the analysis is suitable for both binary and multi-class classification. A pruning method is also proposed to utilise our proposed measure and comprehensive experiments are conducted to evaluate the effectiveness of the proposed methods in this paper.
arxiv情報
著者 | Yijun Bian,Kun Zhang,Anqi Qiu |
発行日 | 2023-07-03 16:12:19+00:00 |
arxivサイト | arxiv_id(pdf) |