Team QUST at SemEval-2023 Task 3: A Comprehensive Study of Monolingual and Multilingual Approaches for Detecting Online News Genre, Framing and Persuasion Techniques

要約

タイトル:SemEval-2023タスク3におけるQUSTチームの単言語および多言語アプローチを用いたオンラインニュースのジャンル、フレーミング、説得テクニックの検出における包括的な研究

要約:この論文では、QUSTチームがSemEval2023タスク3に参加したことが説明されています。モノリンガルモデルは、タスクの初期段階で多数のクラスをアンダーサンプリングして最初に評価されました。その後、クラスの重みとサンプルの重みの組み合わせでプリトレーニングされた多言語モデルをファインチューニングしました。その後、タスクアグノスティックおよびタスク依存の2つの異なるファインチューニング戦略がさらに調査されました。すべての実験は10分割交差検証の下で実行され、多言語アプローチがモノリンガルアプローチよりも優れていることが示されています。提出されたシステムは、サブタスク-1のイタリア語とスペイン語(ゼロショット)で2番目に優れています。

要点:
– この論文は、QUSTチームがSemEval2023タスク3に参加したことを説明している。
– モノリンガルモデルは、タスクの初期段階で多数のクラスをアンダーサンプリングして最初に評価されました。
– プリトレーニングされた多言語モデルをファインチューニングし、クラスの重みとサンプルの重みの組み合わせを使用しました。
– タスクアグノスティックおよびタスク依存の2つの異なるファインチューニング戦略がさらに調査されました。
– すべての実験は10分割交差検証の下で実行され、多言語アプローチがモノリンガルアプローチよりも優れていることが示されています。
– 提出されたシステムは、サブタスク-1のイタリア語とスペイン語(ゼロショット)で2番目に優れています。

要約(オリジナル)

This paper describes the participation of team QUST in the SemEval2023 task 3. The monolingual models are first evaluated with the under-sampling of the majority classes in the early stage of the task. Then, the pre-trained multilingual model is fine-tuned with a combination of the class weights and the sample weights. Two different fine-tuning strategies, the task-agnostic and the task-dependent, are further investigated. All experiments are conducted under the 10-fold cross-validation, the multilingual approaches are superior to the monolingual ones. The submitted system achieves the second best in Italian and Spanish (zero-shot) in subtask-1.

arxiv情報

著者 Ye Jiang
発行日 2023-04-09 08:14:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CL パーマリンク