Towards Explaining Demographic Bias through the Eyes of Face Recognition Models

要約

データとアルゴリズムの両方に内在するバイアスにより、広く普及している機械学習 (ML) ベースの意思決定システムの公平性が最適とは言えなくなります。
このような ML 意思決定システムの信頼性を向上させるには、これらのソリューションに内在する偏りを認識し、一般の人々や開発者に対して透明性を高めることが重要です。
この作業では、さまざまな人口統計グループを処理する際の顔認識モデルの動作の違いを分析する一連の説明可能性ツールを提供することを目指しています。
これは、アクティベーション マップに基づく高次の統計情報を活用して、FR モデルの動作の違いを特定の顔領域に関連付ける説明可能性ツールを構築することで実現します。
2 つのデータセットと 2 つの顔認識モデルに関する実験結果は、FR モデルが参照グループと比較して特定の人口統計グループに対して異なる反応を示す顔の特定の領域を指摘しました。
これらの分析の結果は、興味深いことに、さまざまな人口グループの顔に対する人体測定の違いと人間の判断の違いを分析した研究の結果とよく一致しています。
したがって、これは、さまざまな人口統計グループでの FR モデルの偏った動作を具体的に説明し、それを空間的な顔の特徴に直接関連付けようとする最初の研究です。
コードはこちらで公開されています。

要約(オリジナル)

Biases inherent in both data and algorithms make the fairness of widespread machine learning (ML)-based decision-making systems less than optimal. To improve the trustfulness of such ML decision systems, it is crucial to be aware of the inherent biases in these solutions and to make them more transparent to the public and developers. In this work, we aim at providing a set of explainability tool that analyse the difference in the face recognition models’ behaviors when processing different demographic groups. We do that by leveraging higher-order statistical information based on activation maps to build explainability tools that link the FR models’ behavior differences to certain facial regions. The experimental results on two datasets and two face recognition models pointed out certain areas of the face where the FR models react differently for certain demographic groups compared to reference groups. The outcome of these analyses interestingly aligns well with the results of studies that analyzed the anthropometric differences and the human judgment differences on the faces of different demographic groups. This is thus the first study that specifically tries to explain the biased behavior of FR models on different demographic groups and link it directly to the spatial facial features. The code is publicly available here.

arxiv情報

著者 Biying Fu,Naser Damer
発行日 2022-08-29 07:23:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク