Zero-Shot Rumor Detection with Propagation Structure via Prompt Learning

要約

ソーシャル メディアの時代には、ニュース速報とともにデマが広まり、真実が明らかになることはありません。
以前の研究では、注釈付きのリソースがないため、少数言語で提示された噂は検出されにくいことが明らかになりました。
さらに、昨日のニュースに関係のない不測の速報イベントにより、データ リソースの不足が悪化しています。
この作業では、さまざまなドメインに分類される噂やさまざまな言語で提示される噂を検出するための迅速な学習に基づく、新しいゼロ ショット フレームワークを提案します。
より具体的には、まず、ソーシャル メディアで流布された噂を多様な伝播スレッドとして表現し、次にプロンプ​​トと噂データの両方の言語に依存しないコンテキスト表現を学習する階層的なプロンプト エンコーディング メカニズムを設計します。
ドメイン適応をさらに強化するために、伝播スレッドからドメイン不変の構造的特徴をモデル化し、影響力のあるコミュニティ応答の構造的位置表現を組み込みます。
さらに、モデルのトレーニングを改善するために、新しい仮想応答拡張メソッドが使用されます。
3 つの実世界のデータセットで実施された広範な実験は、提案されたモデルが最先端の方法よりもはるかに優れたパフォーマンスを達成し、初期段階で噂を検出する優れた能力を発揮することを示しています。

要約(オリジナル)

The spread of rumors along with breaking events seriously hinders the truth in the era of social media. Previous studies reveal that due to the lack of annotated resources, rumors presented in minority languages are hard to be detected. Furthermore, the unforeseen breaking events not involved in yesterday’s news exacerbate the scarcity of data resources. In this work, we propose a novel zero-shot framework based on prompt learning to detect rumors falling in different domains or presented in different languages. More specifically, we firstly represent rumor circulated on social media as diverse propagation threads, then design a hierarchical prompt encoding mechanism to learn language-agnostic contextual representations for both prompts and rumor data. To further enhance domain adaptation, we model the domain-invariant structural features from the propagation threads, to incorporate structural position representations of influential community response. In addition, a new virtual response augmentation method is used to improve model training. Extensive experiments conducted on three real-world datasets demonstrate that our proposed model achieves much better performance than state-of-the-art methods and exhibits a superior capacity for detecting rumors at early stages.

arxiv情報

著者 Hongzhan Lin,Pengyao Yi,Jing Ma,Haiyun Jiang,Ziyang Luo,Shuming Shi,Ruifang Liu
発行日 2023-03-29 06:50:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク