要約
タイトル:SemEval-2023タスク3におけるQUSTチームの単言語および多言語アプローチを用いたオンラインニュースのジャンル、フレーミング、説得テクニックの検出における包括的な研究
要約:この論文では、QUSTチームがSemEval2023タスク3に参加したことが説明されています。モノリンガルモデルは、タスクの初期段階で多数のクラスをアンダーサンプリングして最初に評価されました。その後、クラスの重みとサンプルの重みの組み合わせでプリトレーニングされた多言語モデルをファインチューニングしました。その後、タスクアグノスティックおよびタスク依存の2つの異なるファインチューニング戦略がさらに調査されました。すべての実験は10分割交差検証の下で実行され、多言語アプローチがモノリンガルアプローチよりも優れていることが示されています。提出されたシステムは、サブタスク-1のイタリア語とスペイン語(ゼロショット)で2番目に優れています。
要点:
– この論文は、QUSTチームがSemEval2023タスク3に参加したことを説明している。
– モノリンガルモデルは、タスクの初期段階で多数のクラスをアンダーサンプリングして最初に評価されました。
– プリトレーニングされた多言語モデルをファインチューニングし、クラスの重みとサンプルの重みの組み合わせを使用しました。
– タスクアグノスティックおよびタスク依存の2つの異なるファインチューニング戦略がさらに調査されました。
– すべての実験は10分割交差検証の下で実行され、多言語アプローチがモノリンガルアプローチよりも優れていることが示されています。
– 提出されたシステムは、サブタスク-1のイタリア語とスペイン語(ゼロショット)で2番目に優れています。
要約(オリジナル)
This paper describes the participation of team QUST in the SemEval2023 task 3. The monolingual models are first evaluated with the under-sampling of the majority classes in the early stage of the task. Then, the pre-trained multilingual model is fine-tuned with a combination of the class weights and the sample weights. Two different fine-tuning strategies, the task-agnostic and the task-dependent, are further investigated. All experiments are conducted under the 10-fold cross-validation, the multilingual approaches are superior to the monolingual ones. The submitted system achieves the second best in Italian and Spanish (zero-shot) in subtask-1.
arxiv情報
著者 | Ye Jiang |
発行日 | 2023-04-09 08:14:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI