Mitigating Gender Bias in Face Recognition Using the von Mises-Fisher Mixture Model

要約

日常の幅広い用途における深層学習アルゴリズムの高いパフォーマンスと信頼性にも関わらず、多くの調査では、多くのモデルが人口の特定のサブグループ (性別、民族など) を差別するバイアスを示していることが示される傾向があります。
このため、専門家は、敏感なグループ間で均一/同等のパフォーマンスを備えた公平なシステムを開発する必要があります。
この研究では、深い顔認識ネットワークの性別バイアスを調査します。
この偏りを測定するために、顔認識システムの固有の展開ニーズをより適切に反映する 2 つの新しい指標 $\mathrm{BFAR}$ と $\mathrm{BFRR}$ を導入します。
幾何学的な考慮に動機付けられ、事前トレーニングされたモデルの深い埋め込みを変換して、識別されたサブグループにより多くの表現力を与える新しい後処理方法論を通じてジェンダーバイアスを軽減します。
これは、ハイパーパラメータが各性別のクラス内分散を説明するフェア フォン ミゼス フィッシャー損失を最小限に抑えて、浅いニューラル ネットワークをトレーニングすることで構成されています。
興味深いことに、これらのハイパーパラメータは公平性メトリクスと相関していることが経験的に観察されています。
実際、さまざまなデータセットに対する広範な数値実験により、慎重に選択することで性別による偏見が大幅に軽減されることが示されています。
実験に使用されたコードは、https://github.com/JRConti/EthicalModule_vMF にあります。

要約(オリジナル)

In spite of the high performance and reliability of deep learning algorithms in a wide range of everyday applications, many investigations tend to show that a lot of models exhibit biases, discriminating against specific subgroups of the population (e.g. gender, ethnicity). This urges the practitioner to develop fair systems with a uniform/comparable performance across sensitive groups. In this work, we investigate the gender bias of deep Face Recognition networks. In order to measure this bias, we introduce two new metrics, $\mathrm{BFAR}$ and $\mathrm{BFRR}$, that better reflect the inherent deployment needs of Face Recognition systems. Motivated by geometric considerations, we mitigate gender bias through a new post-processing methodology which transforms the deep embeddings of a pre-trained model to give more representation power to discriminated subgroups. It consists in training a shallow neural network by minimizing a Fair von Mises-Fisher loss whose hyperparameters account for the intra-class variance of each gender. Interestingly, we empirically observe that these hyperparameters are correlated with our fairness metrics. In fact, extensive numerical experiments on a variety of datasets show that a careful selection significantly reduces gender bias. The code used for the experiments can be found at https://github.com/JRConti/EthicalModule_vMF.

arxiv情報

著者 Jean-Rémy Conti,Nathan Noiry,Vincent Despiegel,Stéphane Gentric,Stéphan Clémençon
発行日 2024-02-22 17:01:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク