Fair Risk Control: A Generalized Framework for Calibrating Multi-group Fairness Risks

要約

本論文では、機械学習モデルの予測値が多群の公平性保証を満たすように後処理するためのフレームワークを紹介する。多次元マッピング$mathbf{s}$、制約集合$mathcal{G}$、事前指定閾値$alpha$に対する$(˶mathbf{s},˶mathcal{G},˶alpha)-$GMC (Generalized Multi-Dimensional Multicalibration)を導入する。この概念を一般的な設定で実現するための関連アルゴリズムを提案する。この枠組みを、画像セグメンテーションにおける偽陰性率制御、階層分類における予測集合の条件付き不確実性定量化、言語モデルにおける非バイアステキスト生成など、異なる公平性の懸念を包含する多様なシナリオに適用する。いくつかのデータセットとタスクを用いた数値的研究を行う。

要約(オリジナル)

This paper introduces a framework for post-processing machine learning models so that their predictions satisfy multi-group fairness guarantees. Based on the celebrated notion of multicalibration, we introduce $(\mathbf{s},\mathcal{G}, \alpha)-$GMC (Generalized Multi-Dimensional Multicalibration) for multi-dimensional mappings $\mathbf{s}$, constraint set $\mathcal{G}$, and a pre-specified threshold level $\alpha$. We propose associated algorithms to achieve this notion in general settings. This framework is then applied to diverse scenarios encompassing different fairness concerns, including false negative rate control in image segmentation, prediction set conditional uncertainty quantification in hierarchical classification, and de-biased text generation in language models. We conduct numerical studies on several datasets and tasks.

arxiv情報

著者 Lujing Zhang,Aaron Roth,Linjun Zhang
発行日 2024-05-03 16:32:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CY, cs.LG, stat.ME, stat.ML パーマリンク