Shayona@SMM4H23: COVID-19 Self diagnosis classification using BERT and LightGBM models

要約

本稿では、チームShayonaによるSMMH4-23の共有課題1と共有課題4の取り組みと結果について述べる。共有課題-1はCOVID-19の診断を自己申告した英語ツイートの二値分類、共有課題-4は社会不安障害の診断を自己申告した英語Reddit投稿の二値分類であった。我々のチームは、Task-1で全参加者の中で最高のf1-score 0.94を達成した。我々は、両タスクにおいて、LightGBMモデルと組み合わせたTransformerモデル(BERT)を活用した。

要約(オリジナル)

This paper describes approaches and results for shared Task 1 and 4 of SMMH4-23 by Team Shayona. Shared Task-1 was binary classification of english tweets self-reporting a COVID-19 diagnosis, and Shared Task-4 was Binary classification of English Reddit posts self-reporting a social anxiety disorder diagnosis. Our team has achieved the highest f1-score 0.94 in Task-1 among all participants. We have leveraged the Transformer model (BERT) in combination with the LightGBM model for both tasks.

arxiv情報

著者 Rushi Chavda,Darshan Makwana,Vraj Patel,Anupam Shukla
発行日 2024-01-04 09:13:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL パーマリンク