The Unequal Opportunities of Large Language Models: Revealing Demographic Bias through Job Recommendations

要約

大規模言語モデル (LLM) は、現実世界のさまざまなアプリケーションで広く導入されています。
これらのバイアスを理解することは、特に歴史的に恵まれないグループにとって、意思決定に LLM を使用する場合に潜在的な下流への影響を理解するために重要です。
この研究では、仕事の推奨というレンズを通して、LLM の人口統計上の偏りを分析および比較するための簡単な方法を提案します。
ChatGPT と LLaMA という 2 つの最先端の LLM 内の交差バイアスを測定することで、この方法の有効性を実証します。
私たちの実験は主に、性同一性と国籍の偏見を明らかにすることに焦点を当てています。
ただし、私たちの方法は、人口統計上のアイデンティティの交差に関連するバイアスを調査するために拡張できます。
私たちは、両方のモデルが一貫してメキシコ人労働者に低賃金の仕事を提案したり、女性に秘書の役割を推奨したりするなど、さまざまな人口統計上のアイデンティティに対する明確なバイアスを両方のモデルで特定しました。
私たちの研究は、危害と不公平な結果の可能性を理解するために、下流アプリケーションにおける LLM のバイアスを測定することの重要性を強調しています。

要約(オリジナル)

Large Language Models (LLMs) have seen widespread deployment in various real-world applications. Understanding these biases is crucial to comprehend the potential downstream consequences when using LLMs to make decisions, particularly for historically disadvantaged groups. In this work, we propose a simple method for analyzing and comparing demographic bias in LLMs, through the lens of job recommendations. We demonstrate the effectiveness of our method by measuring intersectional biases within ChatGPT and LLaMA, two cutting-edge LLMs. Our experiments primarily focus on uncovering gender identity and nationality bias; however, our method can be extended to examine biases associated with any intersection of demographic identities. We identify distinct biases in both models toward various demographic identities, such as both models consistently suggesting low-paying jobs for Mexican workers or preferring to recommend secretarial roles to women. Our study highlights the importance of measuring the bias of LLMs in downstream applications to understand the potential for harm and inequitable outcomes.

arxiv情報

著者 Abel Salinas,Parth Vipul Shah,Yuzhong Huang,Robert McCormack,Fred Morstatter
発行日 2024-01-09 07:45:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY パーマリンク