BAD: BiAs Detection for Large Language Models in the context of candidate screening

要約

Application Tracking Systems (ATS) により、タレント マネージャー、採用担当者、大学入学委員会は、大量の潜在的な候補者の応募を効率的に処理できるようになりました。
従来、この審査プロセスは手動で行われていましたが、申請の量によって大きなボトルネックが生じ、人間によるバイアスが多く発生していました。
ChatGPT などの大規模言語モデル (LLM) の出現と、現在の自動アプリケーション スクリーニングに手法を採用する可能性により、対処する必要があるさらなるバイアスと公平性の問題が生じます。
このプロジェクトでは、これらのモデルの使用が採用プロセスにおける既存の偏見や不平等をどのように永続させる可能性があるかを実証するために、候補者スクリーニングのコンテキストで ChatGPT およびその他の OpenAI LLM の社会的バイアスのインスタンスを特定して定量化したいと考えています。

要約(オリジナル)

Application Tracking Systems (ATS) have allowed talent managers, recruiters, and college admissions committees to process large volumes of potential candidate applications efficiently. Traditionally, this screening process was conducted manually, creating major bottlenecks due to the quantity of applications and introducing many instances of human bias. The advent of large language models (LLMs) such as ChatGPT and the potential of adopting methods to current automated application screening raises additional bias and fairness issues that must be addressed. In this project, we wish to identify and quantify the instances of social bias in ChatGPT and other OpenAI LLMs in the context of candidate screening in order to demonstrate how the use of these models could perpetuate existing biases and inequalities in the hiring process.

arxiv情報

著者 Nam Ho Koh,Joseph Plata,Joyce Chai
発行日 2023-05-17 17:47:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, F.2.2, I.2, I.2.7 パーマリンク