Survey on Sociodemographic Bias in Natural Language Processing

要約

ディープ ニューラル ネットワークはトレーニング中に意図しないバイアスを学習することが多く、現実世界の設定に展開すると悪影響を及ぼす可能性があります。
この研究では、自然言語処理 (NLP) における社会人口学的バイアスに関連する 214 件の論文を調査しています。
この研究では、NLP における社会人口学的バイアスに対するアプローチ間の類似点と相違点について、より包括的な理解を提供することを目的としています。
バイアスと現実世界の害との違いをよりよく理解するために、心理学と行動経済学のアイデアを参考にして、社会人口学的バイアスの定義を提案します。
私たちは、NLP バイアス研究の 3 つの主要なカテゴリー、つまりバイアスの種類、バイアスの定量化、バイアス解消手法を特定します。
バイアスおよびバイアス除去技術の定量化における現在の傾向に焦点を当て、その長所と短所についての洞察を提供します。
私たちは、バイアスを定量化する現在のアプローチは信頼性の問題に直面しており、バイアス指標の多くは現実世界のバイアスに関連しておらず、バイアス除去技術はトレーニング方法にもっと重点を置く必要があると結論付けています。
最後に、今後の作業に向けた推奨事項を示します。

要約(オリジナル)

Deep neural networks often learn unintended bias during training, which might have harmful effects when deployed in real-world settings. This work surveys 214 papers related to sociodemographic bias in natural language processing (NLP). In this study, we aim to provide a more comprehensive understanding of the similarities and differences among approaches to sociodemographic bias in NLP. To better understand the distinction between bias and real-world harm, we turn to ideas from psychology and behavioral economics to propose a definition for sociodemographic bias. We identify three main categories of NLP bias research: types of bias, quantifying bias, and debiasing techniques. We highlight the current trends in quantifying bias and debiasing techniques, offering insights into their strengths and weaknesses. We conclude that current approaches on quantifying bias face reliability issues, that many of the bias metrics do not relate to real-world bias, and that debiasing techniques need to focus more on training methods. Finally, we provide recommendations for future work.

arxiv情報

著者 Vipul Gupta,Pranav Narayanan Venkit,Shomir Wilson,Rebecca J. Passonneau
発行日 2023-08-22 00:55:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク