Detect, Investigate, Judge and Determine: A Knowledge-guided Framework for Few-shot Fake News Detection

要約

いくつかのショットの偽のニュース検出(FS-FND)は、非常に低いリソースのシナリオで、不正確なニュースと実際のニュースを区別することを目指しています。
このタスクは、ソーシャルメディアに対する偽のニュースの広範な普及と有害な影響により、注目を集めています。
大規模な言語モデル(LLMS)は、豊富な事前知識と優れたコンテキスト学習能力の助けを借りて、競争力のあるパフォーマンスを実証しています。
ただし、既存の方法は、LLMの可能性を大幅に損なう曖昧さや情報不足など、大きな制限に直面しています。
これらの欠点に対処するために、内外の視点からLLMを強化するように設計された、二重の知識誘導偽のニュース検出(DKFND)モデルを提案します。
具体的には、DKFNDは、最初に検出モジュールを介して各ニュース記事の知識概念を識別します。
その後、DKFNDは調査モジュールを創造的に設計して、現在のニュースに関する貴重な情報の内外を取得し、次に別の裁判官モジュールが関連性と信頼を評価します。
最後に、決定モジュールは2つのそれぞれの予測をさらに導き出し、最終結果を取得します。
2つのパブリックデータセットでの広範な実験は、特にリソースの低い設定で、提案された方法の有効性を示しています。

要約(オリジナル)

Few-Shot Fake News Detection (FS-FND) aims to distinguish inaccurate news from real ones in extremely low-resource scenarios. This task has garnered increased attention due to the widespread dissemination and harmful impact of fake news on social media. Large Language Models (LLMs) have demonstrated competitive performance with the help of their rich prior knowledge and excellent in-context learning abilities. However, existing methods face significant limitations, such as the Understanding Ambiguity and Information Scarcity, which significantly undermine the potential of LLMs. To address these shortcomings, we propose a Dual-perspective Knowledge-guided Fake News Detection (DKFND) model, designed to enhance LLMs from both inside and outside perspectives. Specifically, DKFND first identifies the knowledge concepts of each news article through a Detection Module. Subsequently, DKFND creatively designs an Investigation Module to retrieve inside and outside valuable information concerning to the current news, followed by another Judge Module to evaluate the relevance and confidence of them. Finally, a Determination Module further derives two respective predictions and obtain the final result. Extensive experiments on two public datasets show the efficacy of our proposed method, particularly in low-resource settings.

arxiv情報

著者 Ye Liu,Jiajun Zhu,Xukai Liu,Haoyu Tang,Yanghai Zhang,Kai Zhang,Xiaofang Zhou,Enhong Chen
発行日 2025-03-12 04:46:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク