要約
ディープモデルにおけるバイアスの存在は、特定の人口統計学的サブグループに対して不公平な結果をもたらす。バイアスの研究は、主に顔認識と属性予測に焦点を当て、顔検出にはほとんど重点を置いていない。既存の研究では、顔検出を「顔」クラスと「非顔」クラスへの二値分類として考えている。本研究では、顔領域ローカライゼーションを通じて、顔検出の領域で起こりうる偏りを調査します。顔領域ローカライズはすべての顔認識パイプラインに不可欠なタスクであるため、一般的なディープモデルにおけるこのようなバイアスの存在を分析することは必須である。既存の顔検出データセットの多くは、このような分析に適したアノテーションを欠いている。そこで、我々はFair Face Localization with Attributes (F2LA) データセットをウェブキュレーションし、顔の位置情報を含む、顔ごとに10以上の属性を手動でアノテーションする。F2LAの豊富なアノテーションを利用し、事前に学習した4つの顔検出器の性能を調べるための実験設定を行った。その結果、(i)性別や肌色によって検出精度に大きな差があること、(ii)人口動態以外の交絡因子が存在することを確認した。F2LAデータおよび関連するアノテーションは、http://iab-rubric.org/index.php/F2LA からアクセスできます。
要約(オリジナル)
The presence of bias in deep models leads to unfair outcomes for certain demographic subgroups. Research in bias focuses primarily on facial recognition and attribute prediction with scarce emphasis on face detection. Existing studies consider face detection as binary classification into ‘face’ and ‘non-face’ classes. In this work, we investigate possible bias in the domain of face detection through facial region localization which is currently unexplored. Since facial region localization is an essential task for all face recognition pipelines, it is imperative to analyze the presence of such bias in popular deep models. Most existing face detection datasets lack suitable annotation for such analysis. Therefore, we web-curate the Fair Face Localization with Attributes (F2LA) dataset and manually annotate more than 10 attributes per face, including facial localization information. Utilizing the extensive annotations from F2LA, an experimental setup is designed to study the performance of four pre-trained face detectors. We observe (i) a high disparity in detection accuracies across gender and skin-tone, and (ii) interplay of confounding factors beyond demography. The F2LA data and associated annotations can be accessed at http://iab-rubric.org/index.php/F2LA.
arxiv情報
著者 | Surbhi Mittal,Kartik Thakral,Puspita Majumdar,Mayank Vatsa,Richa Singh |
発行日 | 2022-11-07 14:27:55+00:00 |
arxivサイト | arxiv_id(pdf) |