Data Augmentation via Subgroup Mixup for Improving Fairness

要約

この研究では、グループの公平性を向上させるために、サブグループ間のペアワイズミックスアップによるデータ拡張を提案します。
現実世界の機械学習システムのアプリケーションの多くは、過小評価や社会的バイアスを反映したトレーニング データにより、特定のグループ間でバイアスを示します。
分類パフォーマンスを向上させるためのミックスアップの成功に触発されて、トレーニング データを強化し、すべてのサブグループに対して公平で正確な決定境界を奨励するペアワイズ ミックスアップ スキームを開発しました。
グループの公平性を高めるためのデータ拡張により、過小評価されているグループの新しいサンプルを追加して、部分母集団のバランスをとることができます。
さらに、私たちの方法では、ミックスアップの一般化機能を使用して、公平性と精度の両方を向上させることができます。
私たちは、合成シミュレーションと現実世界の公平なベンチマーク分類データの両方について、提案したミックスアップを既存のデータ拡張およびバイアス軽減アプローチと比較し、精度が向上しないにしても堅牢な公平な結果を達成できることを実証しました。

要約(オリジナル)

In this work, we propose data augmentation via pairwise mixup across subgroups to improve group fairness. Many real-world applications of machine learning systems exhibit biases across certain groups due to under-representation or training data that reflects societal biases. Inspired by the successes of mixup for improving classification performance, we develop a pairwise mixup scheme to augment training data and encourage fair and accurate decision boundaries for all subgroups. Data augmentation for group fairness allows us to add new samples of underrepresented groups to balance subpopulations. Furthermore, our method allows us to use the generalization ability of mixup to improve both fairness and accuracy. We compare our proposed mixup to existing data augmentation and bias mitigation approaches on both synthetic simulations and real-world benchmark fair classification data, demonstrating that we are able to achieve fair outcomes with robust if not improved accuracy.

arxiv情報

著者 Madeline Navarro,Camille Little,Genevera I. Allen,Santiago Segarra
発行日 2023-09-13 17:32:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク