Thesis Distillation: Investigating The Impact of Bias in NLP Models on Hate Speech Detection

要約

この論文は私の博士論文の研究内容を要約したものです。
その中で私は、説明可能性、攻撃的なステレオタイプ化バイアス、公平性という 3 つの観点から、NLP モデルのバイアスがヘイトスピーチ検出のタスクに及ぼす影響を調査しています。
私の論文からの主な要点と、それがより広範な NLP コミュニティにどのように役立つかについて説明します。
最後に、将来の重要な研究の方向性について説明します。
私の論文の結果は、NLP モデルのバイアスが 3 つのすべての観点からヘイトスピーチ検出のタスクに影響を与えることを示唆しています。
そして、NLP モデルのバイアスの研究に社会科学を取り入れ始めなければ、NLP モデルのバイアスの測定と緩和に関する現在の限界を効果的に克服することはできないでしょう。

要約(オリジナル)

This paper is a summary of the work in my PhD thesis. In which, I investigate the impact of bias in NLP models on the task of hate speech detection from three perspectives: explainability, offensive stereotyping bias, and fairness. I discuss the main takeaways from my thesis and how they can benefit the broader NLP community. Finally, I discuss important future research directions. The findings of my thesis suggest that bias in NLP models impacts the task of hate speech detection from all three perspectives. And that unless we start incorporating social sciences in studying bias in NLP models, we will not effectively overcome the current limitations of measuring and mitigating bias in NLP models.

arxiv情報

著者 Fatma Elsafoury
発行日 2023-08-31 08:40:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク