要約
自動意思決定システム、特にディープラーニングモデルにおけるバイアスの軽減は、公平性の微妙な定義、データセット固有のバイアス、公平性と精度の間の本質的なトレードオフのため、重要な課題である。これらの問題に対処するために、我々は、学習中に分散、不変性、共分散項を損失関数に統合することにより、ニューラルネットワークにおける公平性を強化する革新的なアプローチであるFairVICを紹介する。FairVICは、事前に定義された公正基準に依存する手法とは異なり、公正概念を抽象化し、保護特性への依存を最小化する。ベンチマークデータセットにおいて、グループと個人の公平性の両方を考慮し、同等のバイアス緩和手法に対してFairVICを評価し、精度と公平性のトレードオフに関するアブレーション研究を実施する。FairVICは、精度を損なうことなく、テストされたすべての測定基準で公平性の大幅な改善($approx70$)を実証し、多様なタスクとデータセットで公平な深層学習のための頑健で一般化可能なソリューションを提供する。
要約(オリジナル)
Mitigating bias in automated decision-making systems, particularly in deep learning models, is a critical challenge due to nuanced definitions of fairness, dataset-specific biases, and the inherent trade-off between fairness and accuracy. To address these issues, we introduce FairVIC, an innovative approach that enhances fairness in neural networks by integrating variance, invariance, and covariance terms into the loss function during training. Unlike methods that rely on predefined fairness criteria, FairVIC abstracts fairness concepts to minimise dependency on protected characteristics. We evaluate FairVIC against comparable bias mitigation techniques on benchmark datasets, considering both group and individual fairness, and conduct an ablation study on the accuracy-fairness trade-off. FairVIC demonstrates significant improvements ($\approx70\%$) in fairness across all tested metrics without compromising accuracy, thus offering a robust, generalisable solution for fair deep learning across diverse tasks and datasets.
arxiv情報
著者 | Charmaine Barker,Daniel Bethell,Dimitar Kazakov |
発行日 | 2025-02-03 12:49:14+00:00 |
arxivサイト | arxiv_id(pdf) |