要約
笑顔の予測などの画像認識タスクのためのディープニューラルネットワークのパフォーマンスは、敏感な属性の過小評価されたクラスで低下することが知られています。
この問題に対処するには、人口統計学的パリティ、等化オッズ、および新しい交差点オーバーユニオン測度のバッチ推定に基づいて、公平性を意識した正則化損失を導入します。
CelebA、UTKFace、およびSIIM-ISIC黒色腫分類チャレンジからの顔画像および医用画像で実行された実験は、高い分類パフォーマンスを維持しながらモデルの公平性を向上させるため、バイアス軽減のための提案された公平性損失の有効性を示しています。
私たちの知る限り、私たちの仕事は、視覚的属性予測子のバイアスを軽減するためのエンドツーエンドのトレーニングスキームにこれらのタイプの損失を組み込む最初の試みです。
私たちのコードはhttps://github.com/nish03/FVAPで入手できます。
要約(オリジナル)
The performance of deep neural networks for image recognition tasks such as predicting a smiling face is known to degrade with under-represented classes of sensitive attributes. We address this problem by introducing fairness-aware regularization losses based on batch estimates of Demographic Parity, Equalized Odds, and a novel Intersection-over-Union measure. The experiments performed on facial and medical images from CelebA, UTKFace, and the SIIM-ISIC melanoma classification challenge show the effectiveness of our proposed fairness losses for bias mitigation as they improve model fairness while maintaining high classification performance. To the best of our knowledge, our work is the first attempt to incorporate these types of losses in an end-to-end training scheme for mitigating biases of visual attribute predictors. Our code is available at https://github.com/nish03/FVAP.
arxiv情報
著者 | Tobias Hänel,Nishant Kumar,Dmitrij Schlesinger,Mengze Li,Erdem Ünal,Abouzar Eslami,Stefan Gumhold |
発行日 | 2022-07-14 14:14:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google