Mitigating Bias in Facial Analysis Systems by Incorporating Label Diversity

要約

顔の分析モデルは、人々の生活に大きな影響を与える実際のアプリケーションにますます適用されています。
ただし、文献が示しているように、顔の属性を自動的に分類するモデルは、保護されたグループに関してアルゴリズムによる識別動作を示し、個人や社会に悪影響を与える可能性があります。
したがって、顔の分類器の意図しないバイアスを軽減できる技術を開発することが重要です。
したがって、この作業では、主観的な人間ベースのラベルと顔の特徴の数学的定義に基づく客観的な注釈の両方を組み合わせた新しい学習方法を紹介します。
具体的には、2つの大規模な人間の注釈付きデータセットから新しい客観的な注釈を生成し、それぞれが分析された顔の特徴の異なる視点をキャプチャします。
次に、さまざまなタイプの注釈でトレーニングされた個々のモデルを組み合わせたアンサンブル学習法を提案します。
注釈手順とデータセットの分布の詳細な分析を提供します。
さらに、ラベルの多様性を組み込むことにより、私たちの方法は、下流のタスクでかなりの精度を維持しながら、意図しないバイアスをうまく軽減することを経験的に示しています。

要約(オリジナル)

Facial analysis models are increasingly applied in real-world applications that have significant impact on peoples’ lives. However, as literature has shown, models that automatically classify facial attributes might exhibit algorithmic discrimination behavior with respect to protected groups, potentially posing negative impacts on individuals and society. It is therefore critical to develop techniques that can mitigate unintended biases in facial classifiers. Hence, in this work, we introduce a novel learning method that combines both subjective human-based labels and objective annotations based on mathematical definitions of facial traits. Specifically, we generate new objective annotations from two large-scale human-annotated dataset, each capturing a different perspective of the analyzed facial trait. We then propose an ensemble learning method, which combines individual models trained on different types of annotations. We provide an in-depth analysis of the annotation procedure as well as the datasets distribution. Moreover, we empirically demonstrate that, by incorporating label diversity, our method successfully mitigates unintended biases, while maintaining significant accuracy on the downstream tasks.

arxiv情報

著者 Camila Kolling,Victor Araujo,Adriano Veloso,Soraia Raupp Musse
発行日 2022-06-14 17:04:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク