要約
ディープラーニングモデルは驚くべき成功を収めています。
それらをトレーニングすることは、エンコードされたバイアスを永続させるリスクをもたらす事前に訓練されたモデルの上に構築することにより、しばしば加速されます。
ここでは、年齢、人種、性別の機密変数の交差点を考慮しながら、顔の画像に一般的に使用されるイメージネット分類器の表現のバイアスを調査します。
バイアスを評価するために、線形分類子プローブを使用し、アクティブ化を地形マップとして視覚化します。
ImagENet分類器の表現は、特に年齢間の区別を可能にすることがわかります。
あまり顕著ではないため、モデルは特定の民族を関連付け、中年グループの性別を区別しているように見えます。
要約(オリジナル)
Deep Learning models have achieved remarkable success. Training them is often accelerated by building on top of pre-trained models which poses the risk of perpetuating encoded biases. Here, we investigate biases in the representations of commonly used ImageNet classifiers for facial images while considering intersections of sensitive variables age, race and gender. To assess the biases, we use linear classifier probes and visualize activations as topographic maps. We find that representations in ImageNet classifiers particularly allow differentiation between ages. Less strongly pronounced, the models appear to associate certain ethnicities and distinguish genders in middle-aged groups.
arxiv情報
著者 | Valerie Krug,Sebastian Stober |
発行日 | 2025-06-06 13:29:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google