Leveraging Social Interactions to Detect Misinformation on Social Media

要約

タイトル:ソーシャルメディア上の誤情報を検出するための社会的相互作用の活用

要約:

– COVID-19パンデミック中に作成されたデータセットを使用して、信頼性の低い情報に関して議論しているツイートのカスケードを含め、ソーシャルメディア上の誤情報スレッドを検出することが重要である。
– 以前の情報源の評価に基づいて信頼できるかどうかの弱いラベルが付けられている。
– 信頼性は、単に何が言われたかだけではなく、誰が言ったか、誰に言ったかによって決まる。
– 似たようなトピックやニュースを広める人々は一般的に信頼性が高いものか低いものかであるため、ネットワーク情報を利用することができる。
– カスケード内の社会的相互作用の表現を学習するためのいくつかの方法をテストし、深層ニューラル言語モデルと組み合わせたマルチ入力(MI)フレームワークを用いて、以前の最先端モデルよりも時間の経過に沿った相互作用のシーケンスを追跡することで改善した。

要約(オリジナル)

Detecting misinformation threads is crucial to guarantee a healthy environment on social media. We address the problem using the data set created during the COVID-19 pandemic. It contains cascades of tweets discussing information weakly labeled as reliable or unreliable, based on a previous evaluation of the information source. The models identifying unreliable threads usually rely on textual features. But reliability is not just what is said, but by whom and to whom. We additionally leverage on network information. Following the homophily principle, we hypothesize that users who interact are generally interested in similar topics and spreading similar kind of news, which in turn is generally reliable or not. We test several methods to learn representations of the social interactions within the cascades, combining them with deep neural language models in a Multi-Input (MI) framework. Keeping track of the sequence of the interactions during the time, we improve over previous state-of-the-art models.

arxiv情報

著者 Tommaso Fornaciari,Luca Luceri,Emilio Ferrara,Dirk Hovy
発行日 2023-04-06 10:30:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL, cs.SI パーマリンク