Gender Artifacts in Visual Datasets

要約

ジェンダー バイアスは、大規模なビジュアル データセット内に存在することが知られており、下流のモデルに反映されたり、増幅されたりすることさえあります。
多くの先行研究は、多くの場合、画像から性別表現情報を削除しようとすることによって、性別バイアスを軽減する方法を提案しています。
これらのアプローチの実現可能性と実用性を理解するために、大規模なビジュアル データセット内に存在する $\textit{gender artifacts}$ を調査します。
私たちは $\textit{gender artifact}$ を性別と相関する視覚的な合図として定義し、特に現代の画像分類器によって学習可能で、解釈可能な人間の帰結を持つ合図に焦点を当てています。
分析を通じて、ジェンダー アーティファクトは COCO および OpenImages データセットのいたるところにあり、低レベルの情報 (カラー チャネルの平均値など) から画像の高レベルの構成 (ポーズや
人の位置)。
ジェンダー アーティファクトの蔓延を考えると、そのようなデータセットからジェンダー アーティファクトを削除しようとする試みはほとんど実行不可能であると主張します。
代わりに、データセット内の画像の分布が非常に性別化されていることを認識し、グループ間のこれらの分布の変化に堅牢な方法を開発する責任は、研究者と実務家にあります。

要約(オリジナル)

Gender biases are known to exist within large-scale visual datasets and can be reflected or even amplified in downstream models. Many prior works have proposed methods for mitigating gender biases, often by attempting to remove gender expression information from images. To understand the feasibility and practicality of these approaches, we investigate what $\textit{gender artifacts}$ exist within large-scale visual datasets. We define a $\textit{gender artifact}$ as a visual cue that is correlated with gender, focusing specifically on those cues that are learnable by a modern image classifier and have an interpretable human corollary. Through our analyses, we find that gender artifacts are ubiquitous in the COCO and OpenImages datasets, occurring everywhere from low-level information (e.g., the mean value of the color channels) to the higher-level composition of the image (e.g., pose and location of people). Given the prevalence of gender artifacts, we claim that attempts to remove gender artifacts from such datasets are largely infeasible. Instead, the responsibility lies with researchers and practitioners to be aware that the distribution of images within datasets is highly gendered and hence develop methods which are robust to these distributional shifts across groups.

arxiv情報

著者 Nicole Meister,Dora Zhao,Angelina Wang,Vikram V. Ramaswamy,Ruth Fong,Olga Russakovsky
発行日 2022-08-22 12:36:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク