要約
公開された研究は、自動化された顔ベースの性別分類アルゴリズムが性別人種グループ間で偏っていることを示唆しています。
具体的には、女性と肌の色が濃い人では不均等な正解率が得られました。
性別分類子のバイアスを軽減するために、ビジョン コミュニティはいくつかの戦略を開発しました。
ただし、これらの緩和戦略の有効性は、主に白人とアフリカ系アメリカ人の限られた数の人種で実証されています。
さらに、これらの戦略は、多くの場合、バイアスと分類精度の間のトレードオフを提供します。
最先端技術をさらに前進させるために、生成的ビュー、構造化学習、証拠学習の力を活用して、性別分類のバイアスを軽減します。
広範な実験的検証を通じて、分類精度を向上させ、性別人種グループ全体のバイアスを削減するバイアス緩和戦略の優位性を実証し、データセット内およびクロス データセット評価で最先端のパフォーマンスを実現します。
要約(オリジナル)
Published studies have suggested the bias of automated face-based gender classification algorithms across gender-race groups. Specifically, unequal accuracy rates were obtained for women and dark-skinned people. To mitigate the bias of gender classifiers, the vision community has developed several strategies. However, the efficacy of these mitigation strategies is demonstrated for a limited number of races mostly, Caucasian and African-American. Further, these strategies often offer a trade-off between bias and classification accuracy. To further advance the state-of-the-art, we leverage the power of generative views, structured learning, and evidential learning towards mitigating gender classification bias. We demonstrate the superiority of our bias mitigation strategy in improving classification accuracy and reducing bias across gender-racial groups through extensive experimental validation, resulting in state-of-the-art performance in intra- and cross dataset evaluations.
arxiv情報
著者 | Sreeraj Ramachandran,Ajita Rattani |
発行日 | 2022-08-17 16:23:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google