Towards Weakly-Supervised Hate Speech Classification Across Datasets

要約

タイトル: 様々なデータセットにわたる弱監督型ヘイトスピーチ分類へのアプローチ

要約: 現在のヘイトスピーチ(HS)認識に関する研究は、系統的でないデータ作成戦略と異なる注釈スキーマによって特徴づけられています。そのため、教師あり学習モデルは、トレーニングできなかったデータセットに対して一般化しない傾向があり、異なるHS分類法でラベル付けされたデータセットでトレーニングされたモデルのパフォーマンスを比較することができません。この問題を緩和するために、我々は極めて弱い監督を提案し、クラス名だけを注視することで、注釈付きのデータを利用することなくモデルを学習させることができます。我々は、最新の弱監督型テキスト分類モデルの有効性を、様々なデータセット内および跨セットで示しています。さらに、HS分類モデルの一般化性の低さの原因に関する定量的・定性的な分析を行っています。

要点:

– 現在のHS認識の研究は、データ作成戦略と注釈スキーマに欠点がある。
– 学習モデルは、トレーニングできなかったデータセットに対して一般化しない傾向があり、異なるHS分類法でラベル付けされたデータセットでトレーニングされたモデルのパフォーマンスを比較することができません。
– 我々は、極めて弱い監督を提案し、クラス名だけを注視することで、注釈付きのデータを利用することなくモデルを学習させることができます。
– 最新の弱監督型テキスト分類モデルの有効性を、様々なデータセット内および跨セットで示しています。
– また、HS分類モデルの一般化性の低さの原因に関する定量的・定性的な分析を行っています。

要約(オリジナル)

As pointed out by several scholars, current research on hate speech (HS) recognition is characterized by unsystematic data creation strategies and diverging annotation schemata. Subsequently, supervised-learning models tend to generalize poorly to datasets they were not trained on, and the performance of the models trained on datasets labeled using different HS taxonomies cannot be compared. To ease this problem, we propose applying extremely weak supervision that only relies on the class name rather than on class samples from the annotated data. We demonstrate the effectiveness of a state-of-the-art weakly-supervised text classification model in various in-dataset and cross-dataset settings. Furthermore, we conduct an in-depth quantitative and qualitative analysis of the source of poor generalizability of HS classification models.

arxiv情報

著者 Yiping Jin,Leo Wanner,Vishakha Laxman Kadam,Alexander Shvets
発行日 2023-05-04 08:15:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CL, cs.CY パーマリンク