要約
言語は、ジェンダーの役割に関する私たちの考え、認識、概念に大きな影響を与えます。
したがって、ジェンダーを含む言語は、社会的包摂を促進し、ジェンダー平等の達成に貢献するための重要なツールです。
その結果、テキスト内のジェンダーバイアスを検出して軽減することは、その伝播と社会的影響を止めるのに役立ちます.
ただし、教師ありおよび教師なしの機械学習 (ML) および自然言語処理 (NLP) 技術を使用してジェンダー バイアスの検出を自動化するためのジェンダー バイアス データセットおよびレキシコンが不足しています。
したがって、この作業の主な貢献は、英語のテキストの性別バイアスの検出を容易にするために、関連する文を収集、注釈付け、および拡張することにより、ラベル付きデータセットと網羅的な辞書を公に提供することです。
この目的のために、構造を再形式化し、新しいバイアスタイプを追加し、各バイアスサブタイプを適切な検出方法にマッピングすることにより、以前に提案した分類法の更新バージョンを提示します。
リリースされたデータセットとレキシコンは、ジェネリック He、ジェネリック She、性別の明示的マーキング、ジェンダー化された新語など、複数のバイアス サブタイプにまたがっています。
単語埋め込みモデルの使用を活用して、収集されたレキシコンをさらに強化しました。
要約(オリジナル)
Language has a profound impact on our thoughts, perceptions, and conceptions of gender roles. Gender-inclusive language is, therefore, a key tool to promote social inclusion and contribute to achieving gender equality. Consequently, detecting and mitigating gender bias in texts is instrumental in halting its propagation and societal implications. However, there is a lack of gender bias datasets and lexicons for automating the detection of gender bias using supervised and unsupervised machine learning (ML) and natural language processing (NLP) techniques. Therefore, the main contribution of this work is to publicly provide labeled datasets and exhaustive lexicons by collecting, annotating, and augmenting relevant sentences to facilitate the detection of gender bias in English text. Towards this end, we present an updated version of our previously proposed taxonomy by re-formalizing its structure, adding a new bias type, and mapping each bias subtype to an appropriate detection methodology. The released datasets and lexicons span multiple bias subtypes including: Generic He, Generic She, Explicit Marking of Sex, and Gendered Neologisms. We leveraged the use of word embedding models to further augment the collected lexicons.
arxiv情報
著者 | Jad Doughman,Wael Khreich |
発行日 | 2023-02-23 07:22:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google