Crowd Intelligence for Early Misinformation Prediction on Social Media

要約

誤った情報はソーシャル メディア上で急速に拡散し、世論に影響を与えたり、危険な行為を助長したり、信頼できる情報源への信頼を損なったりすることで、深刻な損害を引き起こします。
従来のファクトチェックでは普及が速すぎるため、予測手法の必要性が強調されています。
誤った情報を早期に予測するためのクラウド インテリジェンスに基づく手法である CROWDSHIELD を紹介します。
私たちは、誤った情報に対する群衆の反応がその正確さを明らかにすると仮説を立てます。
さらに、私たちは誇張された主張や主張に依存し、会話スレッド内のソース投稿に対する特定の立場やスタンスで返信します。
私たちは、立場と主張という 2 つの側面を捉えるために Q ラーニングを採用しています。
複雑な意思決定空間をナビゲートし、ネットワーク特性を効果的に学習する能力に優れているため、私たちはディープ Q ラーニングを利用しています。
さらに、トランスフォーマーベースのエンコーダーを使用して、コンテンツとコンテキストの両方を包括的に理解します。
この多面的なアプローチは、モデルがユーザー インタラクションに注意を払い、コミュニケーションのコンテンツにしっかりと留まるようにするのに役立ちます。
私たちは、手動で注釈を付けた誤情報検出 Twitter コーパスである MIST を提案します。これは、14,000 を超える返信が含まれる約 200 の会話スレッドで構成されます。
実験では、CROWDSHIELD は 10 のベースライン システムを上回り、マクロ F1 スコアが約 4% 向上しました。
私たちは、アブレーション研究とエラー分析を実施して、提案したモデルのパフォーマンスを検証します。
ソース コードとデータセットは https://github.com/LCS2-IIITD/CrowdShield.git で入手できます。

要約(オリジナル)

Misinformation spreads rapidly on social media, causing serious damage by influencing public opinion, promoting dangerous behavior, or eroding trust in reliable sources. It spreads too fast for traditional fact-checking, stressing the need for predictive methods. We introduce CROWDSHIELD, a crowd intelligence-based method for early misinformation prediction. We hypothesize that the crowd’s reactions to misinformation reveal its accuracy. Furthermore, we hinge upon exaggerated assertions/claims and replies with particular positions/stances on the source post within a conversation thread. We employ Q-learning to capture the two dimensions — stances and claims. We utilize deep Q-learning due to its proficiency in navigating complex decision spaces and effectively learning network properties. Additionally, we use a transformer-based encoder to develop a comprehensive understanding of both content and context. This multifaceted approach helps ensure the model pays attention to user interaction and stays anchored in the communication’s content. We propose MIST, a manually annotated misinformation detection Twitter corpus comprising nearly 200 conversation threads with more than 14K replies. In experiments, CROWDSHIELD outperformed ten baseline systems, achieving an improvement of ~4% macro-F1 score. We conduct an ablation study and error analysis to validate our proposed model’s performance. The source code and dataset are available at https://github.com/LCS2-IIITD/CrowdShield.git.

arxiv情報

著者 Megha Sundriyal,Harshit Choudhary,Tanmoy Chakraborty,Md Shad Akhtar
発行日 2024-08-08 13:45:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク