LCT-1 at SemEval-2023 Task 10: Pre-training and Multi-task Learning for Sexism Detection and Classification

要約

ソーシャルメディアでは女性蔑視と性差別が問題になりつつあります。
オンラインの性差別検出は進歩していますが、システムは解釈できないことがよくあります。
オンライン性差別の説明可能な検出に関する SemEval-2023 タスク 10 は、性差別検出の説明可能性を高めることを目的としており、私たちのチームは提案されたすべてのサブタスクに参加しました。
私たちのシステムは、さらなるドメイン適応型事前トレーニングに基づいています (Gururangan et al., 2020)。
ドメイン適応を備えた Transformer ベースのモデルを構築して、微調整とマルチタスク学習を比較し、各サブタスクには異なるシステム構成が必要であることを示します。
私たちの実験では、マルチタスク学習は性差別検出については標準的な微調整と同等のパフォーマンスを示し、粗粒度の性差別分類では著しく優れていますが、細粒度の分類には微調整の方が適しています。

要約(オリジナル)

Misogyny and sexism are growing problems in social media. Advances have been made in online sexism detection but the systems are often uninterpretable. SemEval-2023 Task 10 on Explainable Detection of Online Sexism aims at increasing explainability of the sexism detection, and our team participated in all the proposed subtasks. Our system is based on further domain-adaptive pre-training (Gururangan et al., 2020). Building on the Transformer-based models with the domain adaptation, we compare fine-tuning with multi-task learning and show that each subtask requires a different system configuration. In our experiments, multi-task learning performs on par with standard fine-tuning for sexism detection and noticeably better for coarse-grained sexism classification, while fine-tuning is preferable for fine-grained classification.

arxiv情報

著者 Konstantin Chernyshev,Ekaterina Garanina,Duygu Bayram,Qiankun Zheng,Lukas Edman
発行日 2023-06-08 09:56:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク