Balancing Beyond Discrete Categories: Continuous Demographic Labels for Fair Face Recognition

要約

バイアスは、顔認識モデルで一定のものでした。
長年にわたり、研究者はモデルとデータの両方の観点からそれを調べてきました。
しかし、データバイアスの緩和に対する彼らのアプローチは限られており、問題の本当の性質に関する洞察が欠けていました。
ここでは、この文書では、アイデンティティごとの個別の値ではなく、連続変数としての民族ラベルの使用を修正することを提案します。
実験的にも理論的にも定式化を検証し、1つの民族性からのすべてのアイデンティティがデータセットのバランスに等しく貢献しているわけではないことを示します。
したがって、民族ごとに同じ数のアイデンティティを持つことは、バランスの取れたデータセットを表しません。
さらに、データセットでトレーニングされたモデルは、連続空間でバランスが取れているモデルは、離散空間でバランスの取れたデータでトレーニングされたモデルを一貫してアウトパフォームすることを示しています。
65以上の異なるモデルをトレーニングし、元のデータセットの20を超えるサブセットを作成しました。

要約(オリジナル)

Bias has been a constant in face recognition models. Over the years, researchers have looked at it from both the model and the data point of view. However, their approach to mitigation of data bias was limited and lacked insight on the real nature of the problem. Here, in this document, we propose to revise our use of ethnicity labels as a continuous variable instead of a discrete value per identity. We validate our formulation both experimentally and theoretically, showcasing that not all identities from one ethnicity contribute equally to the balance of the dataset; thus, having the same number of identities per ethnicity does not represent a balanced dataset. We further show that models trained on datasets balanced in the continuous space consistently outperform models trained on data balanced in the discrete space. We trained more than 65 different models, and created more than 20 subsets of the original datasets.

arxiv情報

著者 Pedro C. Neto,Naser Damer,Jaime S. Cardoso,Ana F. Sequeira
発行日 2025-06-06 14:56:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク