要約
マルチカルチュラシーとマルチキャリブレーションは、学習と計算の複雑さに多数のアプリケーションを発見した予測に関するマルチグループ公平性の概念です。
それらは、単一の学習原始的な原始から達成することができます:弱い不可知論の学習。
ここでは、キャリブレーションの追加の仮定の有無にかかわらず、学習原始的なものとしての多積層の力を調査します。
マルチカジュラシー自体はかなり弱いが、グローバルなキャリブレーション(この概念は校正済みマルチカルチュラシーと呼ばれる)を追加することで、その力が大幅に向上することがあることがわかります。
マルチカルチョウは、標準的な弱い不可知論学的学習ほど強力ではないかもしれないという証拠を示します。これは、最良の仮説が相関$ 1/2 $にあると仮定しても、マルチキュレート予測子を後処理する方法が弱い学習者を獲得する方法がないことを示すことで示唆しています。
むしろ、それが弱い不可知論的学習の制限された形態を生成することを示します。
ただし、予測子を調整することも要求することにより、弱いだけでなく、強力な不可知論的学習を回復します。
マルチグループの公平性の概念を満たす予測因子からのハードコア測定の導出を考慮すると、同様の画像が現れます。
一方では、マルチカルチュラシーは密度の半分の最適な密度のハードコア測定のみを生成しますが、(加重バージョンの)校正されたマルチカルシーが最適な密度を達成することを示します。
私たちの結果は、各設定でマルチカルシーとキャリブレーションが果たす補完的な役割に対する新しい洞察をもたらします。
彼らは、なぜ多積層とグローバルなキャリブレーションが特に強力ではありませんが、なぜかなり強い概念をもたらす理由に光を当てました。
要約(オリジナル)
Multiaccuracy and multicalibration are multigroup fairness notions for prediction that have found numerous applications in learning and computational complexity. They can be achieved from a single learning primitive: weak agnostic learning. Here we investigate the power of multiaccuracy as a learning primitive, both with and without the additional assumption of calibration. We find that multiaccuracy in itself is rather weak, but that the addition of global calibration (this notion is called calibrated multiaccuracy) boosts its power substantially, enough to recover implications that were previously known only assuming the stronger notion of multicalibration. We give evidence that multiaccuracy might not be as powerful as standard weak agnostic learning, by showing that there is no way to post-process a multiaccurate predictor to get a weak learner, even assuming the best hypothesis has correlation $1/2$. Rather, we show that it yields a restricted form of weak agnostic learning, which requires some concept in the class to have correlation greater than $1/2$ with the labels. However, by also requiring the predictor to be calibrated, we recover not just weak, but strong agnostic learning. A similar picture emerges when we consider the derivation of hardcore measures from predictors satisfying multigroup fairness notions. On the one hand, while multiaccuracy only yields hardcore measures of density half the optimal, we show that (a weighted version of) calibrated multiaccuracy achieves optimal density. Our results yield new insights into the complementary roles played by multiaccuracy and calibration in each setting. They shed light on why multiaccuracy and global calibration, although not particularly powerful by themselves, together yield considerably stronger notions.
arxiv情報
著者 | Sílvia Casacuberta,Parikshit Gopalan,Varun Kanade,Omer Reingold |
発行日 | 2025-04-21 16:22:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google