Breaking the Global North Stereotype: A Global South-centric Benchmark Dataset for Auditing and Mitigating Biases in Facial Recognition Systems

要約

顔認識システム (FRS) は、前例のない速度で世界中で開発および導入されています。
ほとんどのプラットフォームは限られた国で設計されていますが、適切なチェックポイントがなく世界中に展開されています。
これは、これらのシステムの異なるパフォーマンスに直面している人々を保護するための強力な法律が不足しているグローバル・サウス諸国にとっては特に問題です。
データセットの利用不能、FRS 機能の理解不足、リソース不足のバイアス緩和策などが組み合わさって、問題はさらに悪化します。
この研究では、世界 8 か国の 6,579 人のユニークな男女スポーツ選手から構成される新しい顔データセットを提案します。
データセットの 50% 以上はグローバル サウス諸国の個人で構成されており、人口統計的に多様です。
敵対的監査と堅牢なモデル トレーニングを支援するために、各イメージには 4 つの敵対的バリアントが含まれており、合計で 40,000 を超えるイメージが含まれています。
また、性別予測のタスクに関して、商用およびオープンソースの両方の 5 つの人気のある FRS のベンチマークを行います (および、レッドチームの例として、オープンソース モデルの 1 つについての国予測も行います)。
産業用 FRS の実験では、精度が 98.2% ~ 38.1% の範囲にあり、グローバル サウスの男性と女性の間には大きな差があることが明らかになりました (最大差は 38.5%)。
世界の北と南の女性の間のすべての FRS にもバイアスが観察されます (最大差は約 50%)。
Grad-CAM 分析により、オープンソース FRS の 1 つで対象領域として鼻、額、口が特定されます。
この洞察を利用して、少数ショットおよび新しい対照学習技術を使用して、シンプルで低リソースのバイアス緩和ソリューションを設計し、いずれかの設定で男性と女性の間の格差が 50% から 1.5% に減少し、精度が大幅に向上しました。
オープンソースの Deepface モデルを使用したレッドチーム実験では、単純な微調整よりも対照的な学習の方が効果的であることが証明されました。

要約(オリジナル)

Facial Recognition Systems (FRSs) are being developed and deployed globally at unprecedented rates. Most platforms are designed in a limited set of countries but deployed in worldwide, without adequate checkpoints. This is especially problematic for Global South countries which lack strong legislation to safeguard persons facing disparate performance of these systems. A combination of unavailability of datasets, lack of understanding of FRS functionality and low-resource bias mitigation measures accentuate the problem. In this work, we propose a new face dataset composed of 6,579 unique male and female sportspersons from eight countries around the world. More than 50% of the dataset comprises individuals from the Global South countries and is demographically diverse. To aid adversarial audits and robust model training, each image has four adversarial variants, totaling over 40,000 images. We also benchmark five popular FRSs, both commercial and open-source, for the task of gender prediction (and country prediction for one of the open-source models as an example of red-teaming). Experiments on industrial FRSs reveal accuracies ranging from 98.2%–38.1%, with a large disparity between males and females in the Global South (max difference of 38.5%). Biases are also observed in all FRSs between females of the Global North and South (max difference of ~50%). Grad-CAM analysis identifies the nose, forehead and mouth as the regions of interest on one of the open-source FRSs. Utilizing this insight, we design simple, low-resource bias mitigation solutions using few-shot and novel contrastive learning techniques significantly improving the accuracy with disparity between males and females reducing from 50% to 1.5% in one of the settings. In the red-teaming experiment with the open-source Deepface model, contrastive learning proves more effective than simple fine-tuning.

arxiv情報

著者 Siddharth D Jaiswal,Animesh Ganai,Abhisek Dash,Saptarshi Ghosh,Animesh Mukherjee
発行日 2024-07-26 13:57:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.CY パーマリンク