要約
人工知能は採用プロセスのさまざまな段階で、ポジションに最適な候補者を自動的に選ぶために使用され、企業は偏りのない採用を保証している。しかし、使用されるアルゴリズムは、人間によって訓練されるか、バイアスのかかった過去の経験からの学習に基づいている。本稿では、外的バイアス(差別)と内的バイアス(自己検閲)を模倣したデータを生成し、5つの古典的なアルゴリズムを訓練し、客観的基準に従って最適な候補者をどの程度見つけられるか、あるいは見つけられないかを研究することを提案する。さらに、ファイルの匿名化が予測の質に与える影響についても研究する。
要約(オリジナル)
Artificial intelligence is used at various stages of the recruitment process to automatically select the best candidate for a position, with companies guaranteeing unbiased recruitment. However, the algorithms used are either trained by humans or are based on learning from past experiences that were biased. In this article, we propose to generate data mimicking external (discrimination) and internal biases (self-censorship) in order to train five classic algorithms and to study the extent to which they do or do not find the best candidates according to objective criteria. In addition, we study the influence of the anonymisation of files on the quality of predictions.
arxiv情報
著者 | Shuyu Wang,Angélique Saillet,Philomène Le Gall,Alain Lacroux,Christelle Martin-Lacroux,Vincent Brault |
発行日 | 2025-05-05 12:24:31+00:00 |
arxivサイト | arxiv_id(pdf) |