Developing Linguistic Patterns to Mitigate Inherent Human Bias in Offensive Language Detection

要約

ソーシャルメディアの普及に伴い、特に社会的弱者をターゲットにした攻撃的なコンテンツが急増し、憎悪、人種差別、性差別などの社会問題を悪化させている。攻撃的な言葉がソーシャルメディアで広く共有されるのを防ぐには、攻撃的な言葉の使用を検出することが極めて重要である。しかし、ソーシャルメディア上の皮肉、含意、様々な形態のヘイトスピーチを正確に検出することは、依然として課題となっている。自然言語ベースのディープラーニングモデルには、大規模で包括的、かつラベル付きのデータセットによる大規模な学習が必要である。残念ながら、手作業でそのようなデータセットを作成することは、コストがかかり、エラーが発生しやすい。さらに、攻撃的な言語データセットにおける人間のバイアスの存在は、深層学習モデルにとって大きな懸念である。本稿では、ラベリング処理におけるバイアスを低減するための言語データ増強アプローチを提案する。これは、ラベリング処理の精度と公平性を向上させるために機械の力を活用することで、人間のバイアスの影響を緩和することを目的とする。このアプローチは、複数の言語にわたる攻撃的な言語分類タスクを改善し、ソーシャルメディア上の攻撃的なコンテンツの普及を減らす可能性がある。

要約(オリジナル)

With the proliferation of social media, there has been a sharp increase in offensive content, particularly targeting vulnerable groups, exacerbating social problems such as hatred, racism, and sexism. Detecting offensive language use is crucial to prevent offensive language from being widely shared on social media. However, the accurate detection of irony, implication, and various forms of hate speech on social media remains a challenge. Natural language-based deep learning models require extensive training with large, comprehensive, and labeled datasets. Unfortunately, manually creating such datasets is both costly and error-prone. Additionally, the presence of human-bias in offensive language datasets is a major concern for deep learning models. In this paper, we propose a linguistic data augmentation approach to reduce bias in labeling processes, which aims to mitigate the influence of human bias by leveraging the power of machines to improve the accuracy and fairness of labeling processes. This approach has the potential to improve offensive language classification tasks across multiple languages and reduce the prevalence of offensive content on social media.

arxiv情報

著者 Toygar Tanyel,Besher Alkurdi,Serkan Ayvaz
発行日 2023-12-04 10:20:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL パーマリンク