Can Large Language Models Detect Rumors on Social Media?

要約

この研究では、ソーシャル メディア上の噂検出に大規模言語モデル (LLM) を使用する方法を調査します。
しかし、LLM が複雑な伝播情報の重要な手がかりに集中できず、大量の情報やコメントに直面した場合に推論するのが難しいため、ニュースコンテンツや多数のコメントが含まれるソーシャルメディア上の伝播情報全体を推論することは、LLM にとって困難です。
冗長な情報。
したがって、LLM を活用した噂検出 (LeRuD) アプローチを提案します。このアプローチでは、LLM にニュースやコメントの重要な手がかりについて推論するよう教えるためのプロンプトを設計し、伝播情報全体を伝播チェーンに分割して、LLM の迷惑行為を軽減します。
重荷。
Twitter と Weibo のデータセットで広範な実験を実施し、LeRuD はいくつかの最先端の噂検出モデルを 2.4% ~ 7.6% 上回りました。
一方、LLM を適用することにより、LeRuD はトレーニングにデータを必要としないため、数ショットまたはゼロショットのシナリオでより有望な噂検出能力を示します。

要約(オリジナル)

In this work, we investigate to use Large Language Models (LLMs) for rumor detection on social media. However, it is challenging for LLMs to reason over the entire propagation information on social media, which contains news contents and numerous comments, due to LLMs may not concentrate on key clues in the complex propagation information, and have trouble in reasoning when facing massive and redundant information. Accordingly, we propose an LLM-empowered Rumor Detection (LeRuD) approach, in which we design prompts to teach LLMs to reason over important clues in news and comments, and divide the entire propagation information into a Chain-of-Propagation for reducing LLMs’ burden. We conduct extensive experiments on the Twitter and Weibo datasets, and LeRuD outperforms several state-of-the-art rumor detection models by 2.4% to 7.6%. Meanwhile, by applying LLMs, LeRuD requires no data for training, and thus shows more promising rumor detection ability in few-shot or zero-shot scenarios.

arxiv情報

著者 Qiang Liu,Xiang Tao,Junfei Wu,Shu Wu,Liang Wang
発行日 2024-02-06 11:33:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク