要約
タイトル:BERTベースモデルを用いたCOVID-19関連ツイートの偽情報検出および感情分析の分類
要約:
– CERIST’22共有タスクに参加する『techno』チームの活動を紹介する論文。
– COVID-19パンデミックに関連する ‘task1.c’ データセットを使用して、感情分析タスク4128件、偽情報検出タスク8661件を実施。
– 自然言語処理ツールとBERTの最も有名な事前学習言語モデルを組み合わせて使用した。
– 分類結果は、感情分析タスクで0.93、偽情報検出タスクで0.90の精度を達成した。
– 事前学習言語モデルの効果的な使用を示している。
要約(オリジナル)
The present paper is about the participation of our team ‘techno’ on CERIST’22 shared tasks. We used an available dataset ‘task1.c’ related to covid-19 pandemic. It comprises 4128 tweets for sentiment analysis task and 8661 tweets for fake news detection task. We used natural language processing tools with the combination of the most renowned pre-trained language models BERT (Bidirectional Encoder Representations from Transformers). The results shows the efficacy of pre-trained language models as we attained an accuracy of 0.93 for the sentiment analysis task and 0.90 for the fake news detection task.
arxiv情報
| 著者 | Rabia Bounaama,Mohammed El Amine Abderrahim |
| 発行日 | 2023-04-02 22:00:27+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI