要約
ディープ ニューラル ネットワークはトレーニング中に意図しないバイアスを学習することが多く、現実世界の設定に展開すると悪影響を及ぼす可能性があります。
この論文では、NLP モデルにおけるバイアスに関する 209 件の論文を調査しており、そのほとんどが社会人口学的バイアスについて扱っています。
バイアスと現実世界の害との違いをよりよく理解するために、心理学と行動経済学のアイデアを参考にして、社会人口学的バイアスの定義を提案します。
私たちは、NLP バイアス研究の 3 つの主要なカテゴリ、つまりバイアスの種類、バイアスの定量化、およびバイアスの緩和を特定します。
我々は、バイアスを定量化する現在のアプローチは信頼性の問題に直面しており、バイアス指標の多くは現実世界のバイアスに関連しておらず、現在のバイアス除去技術は表面的なものであり、バイアスを除去するのではなく隠蔽していると結論付けています。
最後に、今後の作業に向けた推奨事項を示します。
要約(オリジナル)
Deep neural networks often learn unintended biases during training, which might have harmful effects when deployed in real-world settings. This paper surveys 209 papers on bias in NLP models, most of which address sociodemographic bias. To better understand the distinction between bias and real-world harm, we turn to ideas from psychology and behavioral economics to propose a definition for sociodemographic bias. We identify three main categories of NLP bias research: types of bias, quantifying bias, and debiasing. We conclude that current approaches on quantifying bias face reliability issues, that many of the bias metrics do not relate to real-world biases, and that current debiasing techniques are superficial and hide bias rather than removing it. Finally, we provide recommendations for future work.
arxiv情報
著者 | Vipul Gupta,Pranav Narayanan Venkit,Shomir Wilson,Rebecca J. Passonneau |
発行日 | 2023-06-27 02:06:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google