要約
私たちは、バイナリ分類の公平性を強化するための新しいオープンソース ツールキットである OxonFair を紹介します。
既存のツールキットと比較すると: (i) 標準的な表形式の問題だけでなく、NLP およびコンピューター ビジョン分類もサポートしています。
(ii) 当社は、検証データに対する公平性の強制をサポートし、広範な過剰適合の課題に対して堅牢にします。
(iii) 私たちのアプローチは、真陽性、偽陽性、偽陰性、真陰性に基づいてあらゆる測定を最適化できます。
これにより、拡張が容易になり、既存のツールキットよりも表現力が大幅に向上します。
2 つの人気のあるレビュー記事の意思決定ベースのグループ指標の 9 つすべてと 10 つすべてをサポートします。
(iv) 私たちは、公平性の制約と並行してパフォーマンス目標を共同で最適化します。
これにより、公平性を確保しながら劣化を最小限に抑え、調整が不十分で不公平なベースラインのパフォーマンスも向上します。
OxonFair は、sklearn、Autogluon、PyTorch などの標準 ML ツールキットと互換性があり、https://github.com/oxfordinternetinstitute/oxonfair で入手できます。
要約(オリジナル)
We present OxonFair, a new open source toolkit for enforcing fairness in binary classification. Compared to existing toolkits: (i) We support NLP and Computer Vision classification as well as standard tabular problems. (ii) We support enforcing fairness on validation data, making us robust to a wide range of overfitting challenges. (iii) Our approach can optimize any measure based on True Positives, False Positive, False Negatives, and True Negatives. This makes it easily extensible and much more expressive than existing toolkits. It supports all 9 and all 10 of the decision-based group metrics of two popular review articles. (iv) We jointly optimize a performance objective alongside fairness constraints. This minimizes degradation while enforcing fairness, and even improves the performance of inadequately tuned unfair baselines. OxonFair is compatible with standard ML toolkits, including sklearn, Autogluon, and PyTorch and is available at https://github.com/oxfordinternetinstitute/oxonfair
arxiv情報
著者 | Eoin Delaney,Zihao Fu,Sandra Wachter,Brent Mittelstadt,Chris Russell |
発行日 | 2024-11-05 13:59:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google