要約
フェイクニュースの自動検出は大幅に進歩しているにもかかわらず、ニュースはタイムリーであるため、限られたファクトチェックに基づいてニュース記事の真実性を効果的に予測する方法は依然として重要な未解決の問題です。
既存のアプローチは通常、「スクラッチからのトレーニング」パラダイムに従いますが、これは基本的に、大規模な注釈付きデータの利用可能性によって制限されます。
表現力豊かな事前トレーニング済み言語モデル (PLM) は「事前トレーニングと微調整」方式で適応されていますが、事前トレーニングと下流の目標との間に不一致があるため、コストのかかるタスク固有の監視も必要になります。
この論文では、PLM で事前にトレーニングされた知識とソーシャル コンテキスト トポロジを共同活用する、少数ショットのフェイク ニュース検出のための新しいプロンプトベースのパラダイムである「プロンプト アンド アライン」(P&A) を提案します。
私たちのアプローチでは、ニュース記事をタスク関連のテキスト プロンプトで包み、PLM によって処理されてタスク固有の知識を直接引き出すことで、ラベルの不足を軽減します。
ユーザーの真実性の一貫性に関する経験的観察(つまり、ソーシャル ユーザーは同じ真実性タイプのニュースを消費する傾向がある)を動機として、追加のトレーニングのオーバーヘッドを引き起こすことなくソーシャル コンテキストで PLM を補完するために、ニュース記事間のニュース近接グラフをさらに構築して、
共有の読者層で真実性の一貫したシグナルを生成し、信頼に基づいた方法でグラフの端に沿ってプロンプト予測を配置します。
3 つの現実世界のベンチマークに関する広範な実験により、P&A が少数ショットのフェイク ニュース検出パフォーマンスにおいて大幅な差を付けて新たな最先端技術を確立していることが実証されました。
要約(オリジナル)
Despite considerable advances in automated fake news detection, due to the timely nature of news, it remains a critical open question how to effectively predict the veracity of news articles based on limited fact-checks. Existing approaches typically follow a ‘Train-from-Scratch’ paradigm, which is fundamentally bounded by the availability of large-scale annotated data. While expressive pre-trained language models (PLMs) have been adapted in a ‘Pre-Train-and-Fine-Tune’ manner, the inconsistency between pre-training and downstream objectives also requires costly task-specific supervision. In this paper, we propose ‘Prompt-and-Align’ (P&A), a novel prompt-based paradigm for few-shot fake news detection that jointly leverages the pre-trained knowledge in PLMs and the social context topology. Our approach mitigates label scarcity by wrapping the news article in a task-related textual prompt, which is then processed by the PLM to directly elicit task-specific knowledge. To supplement the PLM with social context without inducing additional training overheads, motivated by empirical observation on user veracity consistency (i.e., social users tend to consume news of the same veracity type), we further construct a news proximity graph among news articles to capture the veracity-consistent signals in shared readerships, and align the prompting predictions along the graph edges in a confidence-informed manner. Extensive experiments on three real-world benchmarks demonstrate that P&A sets new states-of-the-art for few-shot fake news detection performance by significant margins.
arxiv情報
著者 | Jiaying Wu,Shen Li,Ailin Deng,Miao Xiong,Bryan Hooi |
発行日 | 2023-09-28 13:19:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google