Few-shot Hate Speech Detection Based on the MindSpore Framework

要約

ソーシャルメディアでのヘイトスピーチの急増は、オンラインコミュニティに大きな脅威をもたらし、効果的な検出システムを必要とします。
深い学習モデルは有望であることを示していますが、大規模な注釈付きコーパスに依存するため、彼らのパフォーマンスはしばしば少ないショットまたは低リソースの設定で悪化します。
これに対処するために、MINDSPOREディープラーニングプラットフォームに実装された少数のショットヘイトスピーチ検出のための迅速な神経フレームワークであるMS-FSLHATEを提案します。
このモデルは、学習可能なプロンプトエンミング、注意プーリングを備えたCNN-Bilstmバックボーン、および同義語ベースの敵対的データ増強を統合して、一般化を改善します。
2つのベンチマークデータセットHatexPlainでの実験結果は、私たちのアプローチが精度、リコール、およびF1スコアの競争力のあるベースラインよりも優れていることをHSOLが構成しています。
さらに、このフレームワークは高い効率とスケーラビリティを示しており、リソースに制約のある環境での展開に適していることを示唆しています。
これらの調査結果は、迅速な学習と、少ないショットシナリオで堅牢で適応可能なヘイトスピーチ検出のための敵対的な増強を組み合わせる可能性を強調しています。

要約(オリジナル)

The proliferation of hate speech on social media poses a significant threat to online communities, requiring effective detection systems. While deep learning models have shown promise, their performance often deteriorates in few-shot or low-resource settings due to reliance on large annotated corpora. To address this, we propose MS-FSLHate, a prompt-enhanced neural framework for few-shot hate speech detection implemented on the MindSpore deep learning platform. The model integrates learnable prompt embeddings, a CNN-BiLSTM backbone with attention pooling, and synonym-based adversarial data augmentation to improve generalization. Experimental results on two benchmark datasets-HateXplain and HSOL-demonstrate that our approach outperforms competitive baselines in precision, recall, and F1-score. Additionally, the framework shows high efficiency and scalability, suggesting its suitability for deployment in resource-constrained environments. These findings highlight the potential of combining prompt-based learning with adversarial augmentation for robust and adaptable hate speech detection in few-shot scenarios.

arxiv情報

著者 Zhenkai Qin,Dongze Wu,Yuxin Liu,Guifang Yang
発行日 2025-04-22 15:42:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CY パーマリンク