Men Also Do Laundry: Multi-Attribute Bias Amplification

要約

コンピュータ ビジョン システムの導入が広がるにつれ、これらのシステムが有害な社会的偏見を再生産するだけでなく、増幅させているのではないかという懸念が研究コミュニティと一般の両方から高まっています。
この研究の焦点であるバイアス増幅の現象は、テスト時に固有のトレーニング セットのバイアスを増幅するモデルを指します。
既存のメトリックは、単一の注釈付き属性 ($\texttt{computer}$ など) に関するバイアス増幅を測定します。
ただし、いくつかのビジュアル データセットは、複数の属性アノテーションを持つ画像で構成されています。
現在の指標では考慮されていない複数の属性 (例: {$\texttt{computer}$、$\texttt{keyboard}$}) に関する相関関係を活用する方法をモデルが学習できることを示します。
さらに、現在のメトリクスでは、正と負の値の集計が含まれるため、バイアス増幅が最小限またはまったく発生していないという誤った印象を与える可能性があることを示します。
さらに、これらの指標には明確な目標値が欠けているため、解釈が困難になります。
これらの欠点に対処するために、私たちは新しい指標である多属性バイアス増幅を提案します。
COCO および imSitu データセットにおけるジェンダーバイアス増幅の分析を通じて、提案された指標を検証します。
最後に、提案した指標を使用してバイアス緩和方法をベンチマークし、将来のバイアス緩和の可能な手段を示唆します。

要約(オリジナル)

As computer vision systems become more widely deployed, there is increasing concern from both the research community and the public that these systems are not only reproducing but amplifying harmful social biases. The phenomenon of bias amplification, which is the focus of this work, refers to models amplifying inherent training set biases at test time. Existing metrics measure bias amplification with respect to single annotated attributes (e.g., $\texttt{computer}$). However, several visual datasets consist of images with multiple attribute annotations. We show models can learn to exploit correlations with respect to multiple attributes (e.g., {$\texttt{computer}$, $\texttt{keyboard}$}), which are not accounted for by current metrics. In addition, we show current metrics can give the erroneous impression that minimal or no bias amplification has occurred as they involve aggregating over positive and negative values. Further, these metrics lack a clear desired value, making them difficult to interpret. To address these shortcomings, we propose a new metric: Multi-Attribute Bias Amplification. We validate our proposed metric through an analysis of gender bias amplification on the COCO and imSitu datasets. Finally, we benchmark bias mitigation methods using our proposed metric, suggesting possible avenues for future bias mitigation

arxiv情報

著者 Dora Zhao,Jerone T. A. Andrews,Alice Xiang
発行日 2023-05-30 15:38:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク