Re-weighting Based Group Fairness Regularization via Classwise Robust Optimization

要約

多くの既存のグループの公平性を意識したトレーニング方法は、特定のルールに基づいて過小評価されたグループを再重み付けするか、正則化項として目標の公平性メトリックに弱く近似された代理を使用することにより、グループの公平性を達成することを目的としています。
各学習スキームには、それぞれ適用性またはパフォーマンスの点で独自の強みがありますが、成功したパフォーマンスは通常、特定のケースに限定されるため、いずれかのカテゴリのメソッドをゴールド スタンダードと見なすことは困難です。
そのために、\ours と呼ばれる原則に基づいた方法を提案します。これは、クラスごとの分散的にロバストな最適化 (DRO) フレームワークを使用して、適切に正当化されたグループ公平性メトリックをトレーニング目標に組み込むことにより、2 つの学習スキームを統合します。
次に、各グループの正しい再重み付けを自動的に生成することにより、結果の目標を最小化する反復最適化アルゴリズムを開発します。
私たちの実験では、最近の強力なベースラインと比較して、FairDRO がスケーラブルで多様なアプリケーションに簡単に適応でき、精度と公平性のトレードオフに関していくつかのベンチマーク データセットで最先端のパフォーマンスを一貫して達成することが示されています。

要約(オリジナル)

Many existing group fairness-aware training methods aim to achieve the group fairness by either re-weighting underrepresented groups based on certain rules or using weakly approximated surrogates for the fairness metrics in the objective as regularization terms. Although each of the learning schemes has its own strength in terms of applicability or performance, respectively, it is difficult for any method in the either category to be considered as a gold standard since their successful performances are typically limited to specific cases. To that end, we propose a principled method, dubbed as \ours, which unifies the two learning schemes by incorporating a well-justified group fairness metric into the training objective using a class wise distributionally robust optimization (DRO) framework. We then develop an iterative optimization algorithm that minimizes the resulting objective by automatically producing the correct re-weights for each group. Our experiments show that FairDRO is scalable and easily adaptable to diverse applications, and consistently achieves the state-of-the-art performance on several benchmark datasets in terms of the accuracy-fairness trade-off, compared to recent strong baselines.

arxiv情報

著者 Sangwon Jung,Taeeon Park,Sanghyuk Chun,Taesup Moon
発行日 2023-03-01 12:00:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク