Men Also Do Laundry: Multi-Attribute Bias Amplification

要約

コンピューター ビジョン システムがより広く展開されるにつれて、これらのシステムが有害な社会的偏見を再生産するだけでなく増幅させているという懸念が、研究コミュニティと一般の人々の両方から高まっています。
この作業の焦点であるバイアス増幅の現象は、テスト時に固有のトレーニング セット バイアスを増幅するモデルを指します。
既存のメトリクスは、単一の注釈付き属性 (例: $\texttt{computer}$) に関してバイアス増幅を測定します。
ただし、いくつかのビジュアル データセットは、複数の属性注釈を持つ画像で構成されています。
現在のメトリックでは説明されていない複数の属性 ({$\texttt{computer}$、$\texttt{keyboard}$} など) に関して、モデルが相関関係を活用することを学習できることを示します。
さらに、現在のメトリクスは、正と負の値の集計を伴うため、バイアス増幅が最小限またはまったく発生していないという誤った印象を与える可能性があることを示しています。
さらに、これらの指標には明確な目標値がないため、解釈が困難です。
これらの欠点に対処するために、新しい測定基準を提案します: Multi-Attribute Bias Amplification。
COCOおよびimSituデータセットでのジェンダーバイアス増幅の分析を通じて、提案されたメトリックを検証します。
最後に、提案されたメトリクスを使用してバイアス緩和方法のベンチマークを行い、将来のバイアス緩和のための可能な手段を提案します

要約(オリジナル)

As computer vision systems become more widely deployed, there is increasing concern from both the research community and the public that these systems are not only reproducing but amplifying harmful social biases. The phenomenon of bias amplification, which is the focus of this work, refers to models amplifying inherent training set biases at test time. Existing metrics measure bias amplification with respect to single annotated attributes (e.g., $\texttt{computer}$). However, several visual datasets consist of images with multiple attribute annotations. We show models can learn to exploit correlations with respect to multiple attributes (e.g., {$\texttt{computer}$, $\texttt{keyboard}$}), which are not accounted for by current metrics. In addition, we show current metrics can give the erroneous impression that minimal or no bias amplification has occurred as they involve aggregating over positive and negative values. Further, these metrics lack a clear desired value, making them difficult to interpret. To address these shortcomings, we propose a new metric: Multi-Attribute Bias Amplification. We validate our proposed metric through an analysis of gender bias amplification on the COCO and imSitu datasets. Finally, we benchmark bias mitigation methods using our proposed metric, suggesting possible avenues for future bias mitigation

arxiv情報

著者 Dora Zhao,Jerone T. A. Andrews,Alice Xiang
発行日 2022-10-21 12:50:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク