How to Solve Few-Shot Abusive Content Detection Using the Data We Actually Have

要約

ソーシャルメディアのプラットフォームは多岐にわたるため、罵倒語検出システムの要件は多様で、常に変化している。ヘイトやミソジニーの検出など、さまざまな特性やラベルセットを持つ大規模なアノテーションコーパスがすでに作成されているが、罵倒の形式や対象は常に進化している。新しいコーパスのアノテーションにはコストがかかるため、この研究では、すでにあるデータセットを活用し、罵倒語検出に関連する幅広いタスクをカバーする。我々の目標は、新しいラベルセットや言語に対して、ターゲットドメインのわずかな学習例を用いて、安価にモデルを構築することである。我々は2段階のアプローチを提案する:まず、マルチタスク方式でモデルを訓練する。次に、ターゲットの要求に数ショットで適応させる。我々の実験によれば、既に存在するデータセットを使用し、ターゲットタスクの数ショットのみを使用することで、モデルの性能はモノリンガルでも言語間でも向上する。また、我々の分析は、我々のモデルが、ターゲットデータセットにのみ存在するラベルの予測を改善し、ターゲットタスクに直接使用されないラベルに関する知識から利益を得ることができるため、乱用言語の一般的な理解を獲得することを示している。

要約(オリジナル)

Due to the broad range of social media platforms, the requirements of abusive language detection systems are varied and ever-changing. Already a large set of annotated corpora with different properties and label sets were created, such as hate or misogyny detection, but the form and targets of abusive speech are constantly evolving. Since, the annotation of new corpora is expensive, in this work we leverage datasets we already have, covering a wide range of tasks related to abusive language detection. Our goal is to build models cheaply for a new target label set and/or language, using only a few training examples of the target domain. We propose a two-step approach: first we train our model in a multitask fashion. We then carry out few-shot adaptation to the target requirements. Our experiments show that using already existing datasets and only a few-shots of the target task the performance of models improve both monolingually and across languages. Our analysis also shows that our models acquire a general understanding of abusive language, since they improve the prediction of labels which are present only in the target dataset and can benefit from knowledge about labels which are not directly used for the target task.

arxiv情報

著者 Viktor Hangya,Alexander Fraser
発行日 2024-05-06 07:41:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク