Survey on Sociodemographic Bias in Natural Language Processing

要約

ディープ ニューラル ネットワークはトレーニング中に意図しないバイアスを学習することが多く、現実世界の設定に展開すると悪影響を及ぼす可能性があります。
この論文では、NLP モデルにおけるバイアスに関する 209 件の論文を調査しており、そのほとんどが社会人口学的バイアスについて扱っています。
バイアスと現実世界の害との違いをよりよく理解するために、心理学と行動経済学のアイデアを参考にして、社会人口学的バイアスの定義を提案します。
私たちは、NLP バイアス研究の 3 つの主要なカテゴリ、つまりバイアスの種類、バイアスの定量化、およびバイアスの緩和を特定します。
我々は、バイアスを定量化する現在のアプローチは信頼性の問題に直面しており、バイアス指標の多くは現実世界のバイアスに関連しておらず、現在のバイアス除去技術は表面的なものであり、バイアスを除去するのではなく隠蔽していると結論付けています。
最後に、今後の作業に向けた推奨事項を示します。

要約(オリジナル)

Deep neural networks often learn unintended biases during training, which might have harmful effects when deployed in real-world settings. This paper surveys 209 papers on bias in NLP models, most of which address sociodemographic bias. To better understand the distinction between bias and real-world harm, we turn to ideas from psychology and behavioral economics to propose a definition for sociodemographic bias. We identify three main categories of NLP bias research: types of bias, quantifying bias, and debiasing. We conclude that current approaches on quantifying bias face reliability issues, that many of the bias metrics do not relate to real-world biases, and that current debiasing techniques are superficial and hide bias rather than removing it. Finally, we provide recommendations for future work.

arxiv情報

著者 Vipul Gupta,Pranav Narayanan Venkit,Shomir Wilson,Rebecca J. Passonneau
発行日 2023-06-27 02:06:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク