要約
このペーパーでは、CheckThat2023 共有タスクのタスク 2 と 3A の方法を紹介します。
私たちは、著者の帰属とプロファイリングに触発された、さまざまなタスクに取り組むために使用されてきた一般的なアプローチを利用しています。
私たちは多数の機械学習モデルをトレーニングしましたが、その結果は、勾配ブースティングが両方のタスクで最高のパフォーマンスを発揮することを示しています。
共有タスク主催者によって提供される公式ランキングに基づいて、私たちのモデルは他のチームと比較した平均的なパフォーマンスを示しています。
要約(オリジナル)
In this paper we present our method for tasks 2 and 3A at the CheckThat2023 shared task. We make use of a generic approach that has been used to tackle a diverse set of tasks, inspired by authorship attribution and profiling. We train a number of Machine Learning models and our results show that Gradient Boosting performs the best for both tasks. Based on the official ranking provided by the shared task organizers, our model shows an average performance compared to other teams.
arxiv情報
著者 | Manex Agirrezabal |
発行日 | 2023-06-15 13:09:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google