要約
このペーパーでは、事実検証のための質問応答コンポーネントとテキスト分類コンポーネントで構成される包括的なフレームワークである Pre-CoFactv3 を紹介します。
インコンテキスト学習、微調整された大規模言語モデル (LLM)、および FakeNet モデルを活用して、事実検証の課題に対処します。
私たちの実験では、さまざまな事前トレーニング済み LLM の比較、FakeNet の導入、さまざまなアンサンブル手法の実装など、多様なアプローチを検討しています。
特に、私たちのチーム Trifecta は、AAAI-24 Factify 3.0 ワークショップでベースラインの精度を 103% 上回り、2 番目の競合他社に対して 70% のリードを維持して 1 位を獲得しました。
この成功は、私たちのアプローチの有効性と、事実検証研究の進歩に対するその潜在的な貢献を強調しています。
要約(オリジナル)
In this paper, we present Pre-CoFactv3, a comprehensive framework comprised of Question Answering and Text Classification components for fact verification. Leveraging In-Context Learning, Fine-tuned Large Language Models (LLMs), and the FakeNet model, we address the challenges of fact verification. Our experiments explore diverse approaches, comparing different Pre-trained LLMs, introducing FakeNet, and implementing various ensemble methods. Notably, our team, Trifecta, secured first place in the AAAI-24 Factify 3.0 Workshop, surpassing the baseline accuracy by 103% and maintaining a 70% lead over the second competitor. This success underscores the efficacy of our approach and its potential contributions to advancing fact verification research.
arxiv情報
著者 | Shang-Hsuan Chiang,Ming-Chih Lo,Lin-Wei Chao,Wen-Chih Peng |
発行日 | 2024-03-15 13:24:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google