A Unified Multi-Task Learning Architecture for Hate Detection Leveraging User-Based Information

要約

ヘイトスピーチ、攻撃的な言葉、攻撃性、人種差別、性差別、その他の暴言は、ソーシャル メディアでよく見られる現象です。
ヘイトコンテンツを大規模にフィルタリングできる人工知能(AI)ベースの介入が必要です。
既存のヘイトスピーチ検出ソリューションのほとんどは、各投稿を分類用の分離された入力インスタンスとして扱うことによってこの機能を利用しています。
この論文では、ユーザー内およびユーザー間ベースの情報を利用して英語のヘイトスピーチ識別を向上させる独自のモデルを導入することで、この問題に対処しています。
実験は、畳み込みニューラル ネットワーク (CNN)、ゲートリカレント ユニット (GRU)、トランスフォーマーからの双方向エンコーダー表現などのディープ ニューラル ネットワークを使用するシングルタスク学習 (STL) およびマルチタスク学習 (MTL) パラダイム上で実行されます (
BERT)、およびライト BERT (ALBERT)。
私たちは 3 つのベンチマーク データセットを使用し、特定のユーザー特徴とテキスト特徴を組み合わせるとマクロ F1 と加重 F1 が大幅に改善されると結論付けました。

要約(オリジナル)

Hate speech, offensive language, aggression, racism, sexism, and other abusive language are common phenomena in social media. There is a need for Artificial Intelligence(AI)based intervention which can filter hate content at scale. Most existing hate speech detection solutions have utilized the features by treating each post as an isolated input instance for the classification. This paper addresses this issue by introducing a unique model that improves hate speech identification for the English language by utilising intra-user and inter-user-based information. The experiment is conducted over single-task learning (STL) and multi-task learning (MTL) paradigms that use deep neural networks, such as convolutional neural networks (CNN), gated recurrent unit (GRU), bidirectional encoder representations from the transformer (BERT), and A Lite BERT (ALBERT). We use three benchmark datasets and conclude that combining certain user features with textual features gives significant improvements in macro-F1 and weighted-F1.

arxiv情報

著者 Prashant Kapil,Asif Ekbal
発行日 2024-11-12 16:03:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク