要約
ディープ ラーニング モデルは、性別や人種などの機密性の高い社会的属性に依存する予測を行うことを学習することがよくあります。これは、特に雇用、銀行、刑事司法などの社会的アプリケーションにおいて、重大な公平性リスクをもたらします。
既存の研究では、バイアス緩和のモデルにおける社会的属性に関する情報を最小限に抑えることで、この問題に取り組んでいます。
ただし、ターゲット タスクと社会的属性の間の高い相関関係により、バイアスの軽減はターゲット タスクの精度と両立しません。
バイアス属性に関する特徴 (つまり、バイアス特徴) の学習がターゲット タスクの最適化に役立つため、モデル バイアスが発生することを思い出して、次の研究課題を検討します。
} この目的のために、\emph{Proxy Debiasing} を提案します。これは、ターゲット タスクのバイアス情報の学習をまずバイアス機能から人工的なプロキシ機能に移し、次に因果的介入を使用して推論でプロキシ機能を排除します。
\emph{Proxy Debiasing} の重要なアイデアは、制御可能なプロキシ機能を設計して、一方でトレーニング段階でターゲット タスクに貢献するバイアス機能を置き換え、他方で推論段階で介入によって簡単に削除できるようにすることです。
これにより、ターゲット情報に影響を与えることなくバイアス機能を排除できるため、以前のバイアス緩和ソリューションにおける公平性と精度のパラドックスに対処できます。
\emph{Proxy Debiasing} をいくつかのベンチマーク データセットに適用し、精度と公平性の両方で最先端のバイアス緩和方法を大幅に改善しました。
要約(オリジナル)
Deep learning models often learn to make predictions that rely on sensitive social attributes like gender and race, which poses significant fairness risks, especially in societal applications, e.g., hiring, banking, and criminal justice. Existing work tackles this issue by minimizing information about social attributes in models for debiasing. However, the high correlation between target task and social attributes makes bias mitigation incompatible with target task accuracy. Recalling that model bias arises because the learning of features in regard to bias attributes (i.e., bias features) helps target task optimization, we explore the following research question: \emph{Can we leverage proxy features to replace the role of bias feature in target task optimization for debiasing?} To this end, we propose \emph{Proxy Debiasing}, to first transfer the target task’s learning of bias information from bias features to artificial proxy features, and then employ causal intervention to eliminate proxy features in inference. The key idea of \emph{Proxy Debiasing} is to design controllable proxy features to on one hand replace bias features in contributing to target task during the training stage, and on the other hand easily to be removed by intervention during the inference stage. This guarantees the elimination of bias features without affecting the target information, thus addressing the fairness-accuracy paradox in previous debiasing solutions. We apply \emph{Proxy Debiasing} to several benchmark datasets, and achieve significant improvements over the state-of-the-art debiasing methods in both of accuracy and fairness.
arxiv情報
著者 | Yi Zhang,Jitao Sang,Junyang Wang |
発行日 | 2022-11-02 16:33:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google