要約
フレーミングはニュースレポートにおいて不可欠なデバイスであり、作家が時事問題の一般の認識に影響を与えることができます。
さまざまな言語の既存の自動ニュースフレーミング検出データセットがありますが、複雑な性格の意味とユニークな言語的特徴を持つ中国語でのニュースフレーミングに焦点を当てるものはありません。
この調査では、SEMVAL-2023タスク3データセットのスタンドアロンデータセットまたは補足リソースとして使用する最初の中国のニュースフレーミングデータセットを紹介します。
その作成について詳しく説明し、ベースライン実験を実行して、このようなデータセットの必要性を強調し、将来の研究のためのベンチマークを作成し、微調整XLM-Roberta-Baseを介して得られた結果を提供し、ゼロショット設定でGPT-4Oを使用します。
GPT-4Oは、すべての言語で微調整されたXLM-Robertaよりも著しく悪化していることがわかります。
中国語では、中国のニュースフレーミングデータセットのサンプルのみを使用して、中国のニュースフレーミングサンプルを使用してSemeval Datasetを拡張するときに0.719のF1-Micro(Semeval Task 3、Subtask 2のパフォーマンスメトリック)スコアを取得します。
肯定的なニュースフレーム検出結果があるため、このデータセットは中国語でニュースフレームを検出するための貴重なリソースであり、Semeval-2023タスク3データセットの貴重な補足です。
要約(オリジナル)
Framing is an essential device in news reporting, allowing the writer to influence public perceptions of current affairs. While there are existing automatic news framing detection datasets in various languages, none of them focus on news framing in the Chinese language which has complex character meanings and unique linguistic features. This study introduces the first Chinese News Framing dataset, to be used as either a stand-alone dataset or a supplementary resource to the SemEval-2023 task 3 dataset. We detail its creation and we run baseline experiments to highlight the need for such a dataset and create benchmarks for future research, providing results obtained through fine-tuning XLM-RoBERTa-Base and using GPT-4o in the zero-shot setting. We find that GPT-4o performs significantly worse than fine-tuned XLM-RoBERTa across all languages. For the Chinese language, we obtain an F1-micro (the performance metric for SemEval task 3, subtask 2) score of 0.719 using only samples from our Chinese News Framing dataset and a score of 0.753 when we augment the SemEval dataset with Chinese news framing samples. With positive news frame detection results, this dataset is a valuable resource for detecting news frames in the Chinese language and is a valuable supplement to the SemEval-2023 task 3 dataset.
arxiv情報
著者 | Owen Cook,Yida Mu,Xinye Yang,Xingyi Song,Kalina Bontcheva |
発行日 | 2025-03-06 13:55:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google