Learning from Discriminatory Training Data

要約

タイトル:偏見のあるトレーニングデータから学ぶ方法

要約:
– 監督学習システムは、歴史的なデータを用いてトレーニングされるが、そのデータが偏見を持っていた場合、保護されたグループに対して偏見を学習する可能性がある。
– 公正な学習手法は、偏見のあるデータセットをトレーニングに用いた場合でも、公正なテストデータセットで良好な性能を発揮するべきである。
– 直接的な差別を取り除くことは、特定のデータセットシフトの問題として表現でき、それに対しては実証的にモデルエラーを最小化する学習方法を提案する。
– この方法は既存の法的システムと互換性がある上、保護されたグループの相互作用の問題に取り組むことができる。
– 技術的には、確率的介入を適用し、因果性と対事実形式を持ち、任意の監督学習モデルに適用できる。それによって、ビジネス上の必要性を最大化しつつ、プロキシを介した差別を防止することができる。

要約(オリジナル)

Supervised learning systems are trained using historical data and, if the data was tainted by discrimination, they may unintentionally learn to discriminate against protected groups. We propose that fair learning methods, despite training on potentially discriminatory datasets, shall perform well on fair test datasets. Such dataset shifts crystallize application scenarios for specific fair learning methods. For instance, the removal of direct discrimination can be represented as a particular dataset shift problem. For this scenario, we propose a learning method that provably minimizes model error on fair datasets, while blindly training on datasets poisoned with direct additive discrimination. The method is compatible with existing legal systems and provides a solution to the widely discussed issue of protected groups’ intersectionality by striking a balance between the protected groups. Technically, the method applies probabilistic interventions, has causal and counterfactual formulations, and is computationally lightweight – it can be used with any supervised learning model to prevent discrimination via proxies while maximizing model accuracy for business necessity.

arxiv情報

著者 Przemyslaw A. Grabowicz,Nicholas Perello,Kenta Takatsu
発行日 2023-04-21 02:31:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CY, cs.LG, I.2.6, physics.soc-ph パーマリンク