The More Secure, The Less Equally Usable: Gender and Ethnicity (Un)fairness of Deep Face Recognition along Security Thresholds

要約

顔のバイオメトリクスは、最新のスマート シティ アプリケーションをより安全で使いやすくする上で重要な役割を果たしています。
通常、顔認識システムの認識しきい値は、考慮されるユース ケースのセキュリティの程度に基づいて調整されます。
一致の可能性は、たとえば、支払いトランザクションの検証の場合に高いしきい値を設定することで減らすことができます。
残念なことに、顔認識の以前の研究では、特定の人口統計学的グループでは通常、エラー率が高いことが示されています。
したがって、これらの格差は、顔のバイオメトリクスで強化されたシステムの公平性に疑問を投げかけています.
この論文では、異なるセキュリティレベルの下で人口統計グループ間の格差がどの程度変化するかを調査します。
私たちの分析には、10 の顔認識モデル、3 つのセキュリティしきい値、および性別と民族に基づく 6 つの人口統計グループが含まれています。
実験によると、システムのセキュリティが高いほど、人口統計グループ間のユーザビリティの格差が大きくなります。
したがって、やむを得ない不公平性の問題が存在し、厳しいセキュリティ レベルを必要とする現実世界のハイ ステークス環境での対策が求められます。

要約(オリジナル)

Face biometrics are playing a key role in making modern smart city applications more secure and usable. Commonly, the recognition threshold of a face recognition system is adjusted based on the degree of security for the considered use case. The likelihood of a match can be for instance decreased by setting a high threshold in case of a payment transaction verification. Prior work in face recognition has unfortunately showed that error rates are usually higher for certain demographic groups. These disparities have hence brought into question the fairness of systems empowered with face biometrics. In this paper, we investigate the extent to which disparities among demographic groups change under different security levels. Our analysis includes ten face recognition models, three security thresholds, and six demographic groups based on gender and ethnicity. Experiments show that the higher the security of the system is, the higher the disparities in usability among demographic groups are. Compelling unfairness issues hence exist and urge countermeasures in real-world high-stakes environments requiring severe security levels.

arxiv情報

著者 Andrea Atzori,Gianni Fenu,Mirko Marras
発行日 2022-09-30 15:51:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク