要約
効率と公平性の向上を目的として、大規模言語モデル (LLM) が職場環境に導入されることが増えています。
しかし、これらのモデルが社会的な偏見や固定観念を反映または悪化させる可能性について懸念が生じています。
この研究では、LLM が雇用慣行に及ぼす潜在的な影響を調査しています。
そのために、従来のオフライン履歴書監査の歴史からインスピレーションを得て、一般的に使用されている LLM の 1 つである OpenAI の GPT-3.5 で人種と性別のバイアスに関する AI 監査を実施します。
私たちは、さまざまな人種や性別の意味を持つ名前を使用して、履歴書の評価 (研究 1) と履歴書の作成 (研究 2) という 2 つの研究を実施します。
研究 1 では、GPT に 32 の異なる名前 (2 つの性別と 4 つの人種グループの組み合わせごとに 4 つの名前) と、10 の職業および 3 つの評価タスク (総合評価、面接への意欲、雇用適性) にわたる 2 つの匿名オプションを含む履歴書を採点するよう依頼します。
)。
このモデルは固定観念に基づいたバイアスを反映していることがわかりました。
研究 2 では、GPT に架空の求職者の履歴書 (名前ごとに 10 件) を作成するように指示します。
履歴書を作成するとき、GPT は根底にある偏見を明らかにします。
女性の履歴書には経験の浅い職業が記載されていたが、アジア人とヒスパニック系の履歴書には英語を母国語としない人や米国人以外の学歴や職歴など、移民の特徴があった。
私たちの調査結果は、特に職場の状況における LLM バイアスに関する文献の増加に貢献しています。
要約(オリジナル)
Large language models (LLMs) are increasingly being introduced in workplace settings, with the goals of improving efficiency and fairness. However, concerns have arisen regarding these models’ potential to reflect or exacerbate social biases and stereotypes. This study explores the potential impact of LLMs on hiring practices. To do so, we conduct an AI audit of race and gender biases in one commonly-used LLM, OpenAI’s GPT-3.5, taking inspiration from the history of traditional offline resume audits. We conduct two studies using names with varied race and gender connotations: resume assessment (Study 1) and resume generation (Study 2). In Study 1, we ask GPT to score resumes with 32 different names (4 names for each combination of the 2 gender and 4 racial groups) and two anonymous options across 10 occupations and 3 evaluation tasks (overall rating, willingness to interview, and hireability). We find that the model reflects some biases based on stereotypes. In Study 2, we prompt GPT to create resumes (10 for each name) for fictitious job candidates. When generating resumes, GPT reveals underlying biases; women’s resumes had occupations with less experience, while Asian and Hispanic resumes had immigrant markers, such as non-native English and non-U.S. education and work experiences. Our findings contribute to a growing body of literature on LLM biases, particularly in workplace contexts.
arxiv情報
著者 | Lena Armstrong,Abbey Liu,Stephen MacNeil,Danaë Metaxa |
発行日 | 2024-11-15 16:53:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google