要約
機械学習 (ML) モデルは、多くの最新のデータ システムを駆動するために広く採用されています。
ML モデルは紛れもなく強力なツールですが、パフォーマンスのバランスが崩れたり、不公平な動作を示したりすることがよくあります。
この問題の根源は、多くの場合、異なる部分母集団が異なる傾向を示すことが多いという事実にあります。学習アルゴリズムがデータの傾向を特定しようとすると、自然に大多数のグループの傾向が優先され、パフォーマンスが低く不公平なモデルにつながります。
少数民族。
私たちの目標は、データや学習アルゴリズムを変更せずに、非侵襲的な介入のみを適用することにより、ML モデルの公平性と信頼性を向上させることです。
単純だが重要な洞察を使用します。異なる母集団間、および学習済みモデルと少数派母集団間の傾向の相違は、データのドリフトに類似しており、データの一部とトレーニング済みモデルとの間の適合性が低いことを示しています。
このドリフトを解決するための 2 つの戦略 (モデル分割と再計量) を検討し、基礎となるデータに対するモデルの全体的な適合性を改善することを目指しています。
どちらの方法も、最近提案された適合性制約のデータ プロファイリング プリミティブを使用する新しい方法を導入しています。
7 つの実世界のデータセットに対する実験的評価では、DifFair と ConFair の両方が ML モデルの公平性を向上させることが示されています。
要約(オリジナル)
Machine Learning (ML) models are widely employed to drive many modern data systems. While they are undeniably powerful tools, ML models often demonstrate imbalanced performance and unfair behaviors. The root of this problem often lies in the fact that different subpopulations commonly display divergent trends: as a learning algorithm tries to identify trends in the data, it naturally favors the trends of the majority groups, leading to a model that performs poorly and unfairly for minority populations. Our goal is to improve the fairness and trustworthiness of ML models by applying only non-invasive interventions, i.e., without altering the data or the learning algorithm. We use a simple but key insight: the divergence of trends between different populations, and, consecutively, between a learned model and minority populations, is analogous to data drift, which indicates the poor conformance between parts of the data and the trained model. We explore two strategies (model-splitting and reweighing) to resolve this drift, aiming to improve the overall conformance of models to the underlying data. Both our methods introduce novel ways to employ the recently-proposed data profiling primitive of Conformance Constraints. Our experimental evaluation over 7 real-world datasets shows that both DifFair and ConFair improve the fairness of ML models.
arxiv情報
著者 | Ke Yang,Alexandra Meliou |
発行日 | 2023-03-30 17:30:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google