Fairness Properties of Face Recognition and Obfuscation Systems

要約

商業および政府部門での自動顔認識の普及により、個人のプライバシーに関する重大な懸念が生じています。
これらのプライバシーの問題に対処する 1 つのアプローチは、顔認識システムを強化するメトリック埋め込みネットワークに対して回避攻撃を採用することです。
摂動された顔は、顔認識のコンテキストで不公平であることが知られているメトリック埋め込みネットワークで生成されます。
当然、人口学的公平性の問題が続きます。顔の難読化システムのパフォーマンスに人口学的格差はありますか?
私たちは、最近の顔の難読化システムを分析的かつ経験的に調査することで、この質問に答えます。
メトリック埋め込みネットワークは人口統計学的に認識されていることがわかっています。顔埋め込みは人口統計学的にクラスター化されています。
このクラスタリング動作が、マイノリティ グループの顔に対する顔の難読化ユーティリティの削減にどのようにつながるかを示します。
直感的な分析モデルは、これらの現象に対する洞察をもたらします。

要約(オリジナル)

The proliferation of automated face recognition in the commercial and government sectors has caused significant privacy concerns for individuals. One approach to address these privacy concerns is to employ evasion attacks against the metric embedding networks powering face recognition systems: Face obfuscation systems generate imperceptibly perturbed images that cause face recognition systems to misidentify the user. Perturbed faces are generated on metric embedding networks, which are known to be unfair in the context of face recognition. A question of demographic fairness naturally follows: are there demographic disparities in face obfuscation system performance? We answer this question with an analytical and empirical exploration of recent face obfuscation systems. Metric embedding networks are found to be demographically aware: face embeddings are clustered by demographic. We show how this clustering behavior leads to reduced face obfuscation utility for faces in minority groups. An intuitive analytical model yields insight into these phenomena.

arxiv情報

著者 Harrison Rosenberg,Brian Tang,Kassem Fawaz,Somesh Jha
発行日 2022-09-16 17:46:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク