Fairness Under Cover: Evaluating the Impact of Occlusions on Demographic Bias in Facial Recognition

要約

この研究では、特に人口統計上のバイアスに焦点を当てて、顔認識システムの公平性に対するオクルージョンの影響を調査しています。
Racial Faces in the Wild (RFW) データセットと合成的に追加されたリアルなオクルージョンを使用して、BUPT-Balanced および BUPT-GlobalFace データセットでトレーニングされた顔認識モデルのパフォーマンスに対する影響を評価します。
Equilized Odds、Demographic Parity、精度の STD、および公平性の不一致率によると、公平性が低下する一方で、FMR、FNMR、および精度の分散が増加していることに注目します。
さらに、モデル予測におけるオクルージョンの重要性を理解するためにピクセル アトリビューション手法を利用し、さまざまな人口統計グループにわたってオクルージョンがモデルのパフォーマンスに与える影響の程度を定量化する新しい指標であるフェイス オクルージョン影響率 (FOIR) を提案します。
私たちの結果は、咬合が既存の人口統計上の偏りを悪化させ、モデルは不平等な形で咬合をより重視しており、特にアフリカ人に深刻な影響を与えていることを示しています。

要約(オリジナル)

This study investigates the effects of occlusions on the fairness of face recognition systems, particularly focusing on demographic biases. Using the Racial Faces in the Wild (RFW) dataset and synthetically added realistic occlusions, we evaluate their effect on the performance of face recognition models trained on the BUPT-Balanced and BUPT-GlobalFace datasets. We note increases in the dispersion of FMR, FNMR, and accuracy alongside decreases in fairness according to Equilized Odds, Demographic Parity, STD of Accuracy, and Fairness Discrepancy Rate. Additionally, we utilize a pixel attribution method to understand the importance of occlusions in model predictions, proposing a new metric, Face Occlusion Impact Ratio (FOIR), that quantifies the extent to which occlusions affect model performance across different demographic groups. Our results indicate that occlusions exacerbate existing demographic biases, with models placing higher importance on occlusions in an unequal fashion, particularly affecting African individuals more severely.

arxiv情報

著者 Rafael M. Mamede,Pedro C. Neto,Ana F. Sequeira
発行日 2024-08-19 17:34:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク