A Unified Contrastive Transfer Framework with Propagation Structure for Boosting Low-Resource Rumor Detection

要約

タイトル:低リソースの噂検出を改善するための伝播構造を持つ統一対照転送フレームワーク

要約:

– 偽情報は、ブレイキングニュースや人気のあるトピックと共に拡散することによって重大な問題となっています。
– 学習モデルのトレーニングに同じドメインから収集した十分なコーパスがあるため、既存の噂検出アルゴリズムは昨日のニュースでは有望な結果を示しています。
– しかし、トレーニングデータと事前の専門知識の不足のため、特に異なる言語で伝播する噂を検出するのは難しくなっています(すなわち、低リソース領域)。
– 本論文では、よく準備された噂データから学習された特徴量を低リソース領域に適応することによって噂を検出するための統一対照転送フレームワークを提案しています。
– 具体的には、ソーシャルメディアで伝わる噂を非指向性のトポロジーとして表現し、単一の対照パラダイムを通じてマルチスケールグラフ畳み込みネットワークをトレーニングします。
– 当社のモデルは、言語の整合性と新しいドメインに対応するために、言語の整合性と新しいドメインに対応するために、新しいドメインに適応的な対照学習機構を設計しています。
– 少数のターゲットイベントからの表現学習を向上させるために、当社はターゲットイベントの分布の一様性と噂を示す信号が密接に関連していることを明らかにしました。
– 当社は、ターゲットイベントを区別するための三つのデータ拡張戦略を備えたターゲット別の対照トレーニングメカニズムを設計し、表現を統一化します。
– 実際のマイクロブログプラットフォームから収集された4つの低リソースデータセットで実施された広範な実験により、当社のフレームワークは最先端の方法よりもはるかに優れたパフォーマンスを発揮し、早期に噂を検出する優れた能力を示しています。

要約(オリジナル)

The truth is significantly hampered by massive rumors that spread along with breaking news or popular topics. Since there is sufficient corpus gathered from the same domain for model training, existing rumor detection algorithms show promising performance on yesterday’s news. However, due to a lack of training data and prior expert knowledge, they are poor at spotting rumors concerning unforeseen events, especially those propagated in different languages (i.e., low-resource regimes). In this paper, we propose a unified contrastive transfer framework to detect rumors by adapting the features learned from well-resourced rumor data to that of the low-resourced. More specifically, we first represent rumor circulated on social media as an undirected topology, and then train a Multi-scale Graph Convolutional Network via a unified contrastive paradigm. Our model explicitly breaks the barriers of the domain and/or language issues, via language alignment and a novel domain-adaptive contrastive learning mechanism. To enhance the representation learning from a small set of target events, we reveal that rumor-indicative signal is closely correlated with the uniformity of the distribution of these events. We design a target-wise contrastive training mechanism with three data augmentation strategies, capable of unifying the representations by distinguishing target events. Extensive experiments conducted on four low-resource datasets collected from real-world microblog platforms demonstrate that our framework achieves much better performance than state-of-the-art methods and exhibits a superior capacity for detecting rumors at early stages.

arxiv情報

著者 Hongzhan Lin,Jing Ma,Ruichao Yang,Zhiwei Yang,Mingfei Cheng
発行日 2023-04-05 15:18:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL パーマリンク