Adaptive Priority Reweighing for Generalizing Fairness Improvement

要約

重要な意思決定分野における機械学習アプリケーションの浸透が進むにつれて、アルゴリズムの公平性を求める声がより顕著になっています。
公平性制約を使用した学習を通じてアルゴリズムの公平性を向上させるさまざまな手法が存在しますが、そのパフォーマンスはテスト セットでは十分に一般化されていません。
より優れた一般化性を備えた、パフォーマンスが期待できる公平なアルゴリズムが必要です。
この論文では、モデルの一般化可能性に対するトレーニング データとテスト データの間の分布シフトの影響を排除するための新しい適応再重み付け方法を提案します。
以前の再重み付け方法のほとんどは、各 (サブ) グループに統一された重みを割り当てることを提案しています。
むしろ、私たちの方法は、サンプル予測から決定境界までの距離を詳細にモデル化します。
当社の適応再重み付け手法は、判定境界に近いサンプルを優先し、より高い重みを割り当てることで公平な分類器の一般化可能性を向上させます。
表形式のベンチマークにおける精度と公平性の尺度 (つまり、機会均等、オッズ均等化、人口統計的パリティなど) について、適応型優先度再重み付け手法の一般化可能性を検証するために、広範な実験が実行されます。
また、言語モデルと視覚モデルの公平性を向上させる方法のパフォーマンスも強調します。
コードは https://github.com/che2198/APW で入手できます。

要約(オリジナル)

With the increasing penetration of machine learning applications in critical decision-making areas, calls for algorithmic fairness are more prominent. Although there have been various modalities to improve algorithmic fairness through learning with fairness constraints, their performance does not generalize well in the test set. A performance-promising fair algorithm with better generalizability is needed. This paper proposes a novel adaptive reweighing method to eliminate the impact of the distribution shifts between training and test data on model generalizability. Most previous reweighing methods propose to assign a unified weight for each (sub)group. Rather, our method granularly models the distance from the sample predictions to the decision boundary. Our adaptive reweighing method prioritizes samples closer to the decision boundary and assigns a higher weight to improve the generalizability of fair classifiers. Extensive experiments are performed to validate the generalizability of our adaptive priority reweighing method for accuracy and fairness measures (i.e., equal opportunity, equalized odds, and demographic parity) in tabular benchmarks. We also highlight the performance of our method in improving the fairness of language and vision models. The code is available at https://github.com/che2198/APW.

arxiv情報

著者 Zhihao Hu,Yiran Xu,Mengnan Du,Jindong Gu,Xinmei Tian,Fengxiang He
発行日 2023-09-15 13:04:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG パーマリンク