A New Korean Text Classification Benchmark for Recognizing the Political Intents in Online Newspapers

要約

様々な雑誌のオンライン記事を読んでいる多くのユーザーは、テキスト中の暗黙の意図を区別することにかなりの困難を感じているかもしれない。本研究では、テキストの文脈を理解することにより、与えられたオンライン新聞の政治的意図を自動的に認識することに焦点を当てる。この課題を解決するために、様々な記事を含む新しい韓国語テキスト分類データセットを提示する。また、提案データセットで訓練したディープラーニングベースのテキスト分類ベースラインモデルを提供する。我々のデータセットには、韓国で最も代表的な6つの新聞機関の政治欄から、政治的意図を含む可能性のある12,000のニュース記事が含まれる。全てのテキストサンプルは、(1)政治的志向性のレベルと(2)親政府性のレベルの2つの側面で同時にラベル付けされている。我々の知る限り、我々の論文は、長いテキストを含み、マルチタスク分類問題を扱う最も大規模な韓国のニュースデータセットである。また、変換器アーキテクチャに基づく最新の言語モデル(SOTA)を学習し、学習したモデルが適切なテキスト分類性能を示すことを実証する。全てのコード、データセット、学習済みモデルはhttps://github.com/Kdavid2355/KoPolitic-Benchmark-Dataset。

要約(オリジナル)

Many users reading online articles in various magazines may suffer considerable difficulty in distinguishing the implicit intents in texts. In this work, we focus on automatically recognizing the political intents of a given online newspaper by understanding the context of the text. To solve this task, we present a novel Korean text classification dataset that contains various articles. We also provide deep-learning-based text classification baseline models trained on the proposed dataset. Our dataset contains 12,000 news articles that may contain political intentions, from the politics section of six of the most representative newspaper organizations in South Korea. All the text samples are labeled simultaneously in two aspects (1) the level of political orientation and (2) the level of pro-government. To the best of our knowledge, our paper is the most large-scale Korean news dataset that contains long text and addresses multi-task classification problems. We also train recent state-of-the-art (SOTA) language models that are based on transformer architectures and demonstrate that the trained models show decent text classification performance. All the codes, datasets, and trained models are available at https://github.com/Kdavid2355/KoPolitic-Benchmark-Dataset.

arxiv情報

著者 Beomjune Kim,Eunsun Lee,Dongbin Na
発行日 2023-11-03 04:59:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク