要約
公平性を高めるためのトレーニング データの洗練された再重み付けスキームを通じて、モデル トレーニングにおける経験的リスク最小化 (ERM) プロセスを強化する革新的なアプローチを導入します。
このスキームは、最適な予測変数が多様なサブグループ間で一貫性を維持することを保証することで、公平性の十分性ルールを維持することを目的としています。
私たちはこの課題に対処するために 2 レベルの定式化を採用し、サンプルの再重み付け戦略を検討します。
モデルのサイズに依存する従来の方法とは異なり、私たちの定式化はサンプルの重みの空間に基づく一般化の複雑さに基づいています。
トレーニング速度を向上させるために重みを離散化します。
私たちの方法の実証的検証により、その有効性と堅牢性が実証され、さまざまな実験にわたって予測パフォーマンスと公平性メトリクスの間のバランスが一貫して向上していることが明らかになりました。
要約(オリジナル)
We introduce an innovative approach to enhancing the empirical risk minimization (ERM) process in model training through a refined reweighting scheme of the training data to enhance fairness. This scheme aims to uphold the sufficiency rule in fairness by ensuring that optimal predictors maintain consistency across diverse sub-groups. We employ a bilevel formulation to address this challenge, wherein we explore sample reweighting strategies. Unlike conventional methods that hinge on model size, our formulation bases generalization complexity on the space of sample weights. We discretize the weights to improve training speed. Empirical validation of our method showcases its effectiveness and robustness, revealing a consistent improvement in the balance between prediction performance and fairness metrics across various experiments.
arxiv情報
著者 | Xuan Zhao,Klaus Broelemann,Salvatore Ruggieri,Gjergji Kasneci |
発行日 | 2024-10-01 13:18:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google