Measuring Normative and Descriptive Biases in Language Models Using Census Data

要約

タイトル:国勢調査データを用いた言語モデルの規範的および記述的バイアスの測定

要約:
– 職業が男女間で分布する割合が、学習済みの言語モデルに反映されるかどうかを調査する。
– このような分布は、常識的な理想に合致するわけでも、現実を記述したものであるわけでもない。
– オンライン国勢調査データから、フランス、ノルウェー、イギリス、アメリカの国立統計機関が提供する職業別男女人口比率情報を取得し、男女の指示語や名詞を職業と組み合わせた文章を作成する。
– 英語、フランス語、ノルウェー語をカバーする10の言語モデルを対象に、スコアリングシステムを導入し、言語モデルが規範的および記述的な職業分布に合致しているかどうかを測定する。
– この手法は言語に依存せず、文章、職業、言語のどの組み合わせでも使用でき、国勢調査データや人口統計変数の他の次元にも拡張できる可能性がある。

要約(オリジナル)

We investigate in this paper how distributions of occupations with respect to gender is reflected in pre-trained language models. Such distributions are not always aligned to normative ideals, nor do they necessarily reflect a descriptive assessment of reality. In this paper, we introduce an approach for measuring to what degree pre-trained language models are aligned to normative and descriptive occupational distributions. To this end, we use official demographic information about gender–occupation distributions provided by the national statistics agencies of France, Norway, United Kingdom, and the United States. We manually generate template-based sentences combining gendered pronouns and nouns with occupations, and subsequently probe a selection of ten language models covering the English, French, and Norwegian languages. The scoring system we introduce in this work is language independent, and can be used on any combination of template-based sentences, occupations, and languages. The approach could also be extended to other dimensions of national census data and other demographic variables.

arxiv情報

著者 Samia Touileb,Lilja Øvrelid,Erik Velldal
発行日 2023-04-12 11:06:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL パーマリンク