要約
ハイステーク設定での言語技術の使用は近年増加しており、主に大規模な言語モデル(LLM)の成功に動機付けられています。
しかし、LLMSの大きなパフォーマンスにもかかわらず、それらは人口統計学的バイアス、説明責任、プライバシーなどの倫理的懸念の影響を受けやすいです。
この作業は、AIベースの自動採用に関するケーススタディを使用して、データに存在する人口統計学的バイアスを学ぶために、変圧器ベースのシステムの能力を分析しようとしています。
最終ツールで偏った動作を軽減する方法として、学習パイプラインからの性別情報を削減するためのプライバシーを向上させるフレームワークを提案します。
私たちの実験では、2つの異なるLLMに基づいて構築されたシステムに対するデータバイアスの影響と、提案されたフレームワークが訓練されたシステムがデータのバイアスを再現することを効果的に防止する方法を分析します。
要約(オリジナル)
The use of language technologies in high-stake settings is increasing in recent years, mostly motivated by the success of Large Language Models (LLMs). However, despite the great performance of LLMs, they are are susceptible to ethical concerns, such as demographic biases, accountability, or privacy. This work seeks to analyze the capacity of Transformers-based systems to learn demographic biases present in the data, using a case study on AI-based automated recruitment. We propose a privacy-enhancing framework to reduce gender information from the learning pipeline as a way to mitigate biased behaviors in the final tools. Our experiments analyze the influence of data biases on systems built on two different LLMs, and how the proposed framework effectively prevents trained systems from reproducing the bias in the data.
arxiv情報
著者 | Alejandro Peña,Julian Fierrez,Aythami Morales,Gonzalo Mancera,Miguel Lopez,Ruben Tolosana |
発行日 | 2025-06-13 15:29:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google