Characteristics of Political Misinformation Over the Past Decade

要約

誤った情報はオンラインで広がる傾向がありますが、現実世界の深刻な結果をもたらす可能性があります。
誤った情報の影響を検出および緩和するための自動化されたツールを開発するには、研究者はモダリティ(テキスト、画像、ビデオ)、ソース、および誤った情報の内容に適応できるアルゴリズムを活用する必要があります。
ただし、これらの特性は時間をかけて動的に変化する傾向があるため、誤った情報の広がりと戦うために堅牢なアルゴリズムを開発することは困難です。
したがって、このペーパーでは、自然言語処理を使用して、12年間にわたって政治的誤った情報の一般的な特性を見つけます。
結果は、誤った情報が近年劇的に増加し、テキストと画像の主要な情報モダリティ(FacebookやInstagramなど)のソースからますます共有され始めていることを示していますが、誤った情報を含むビデオ共有ソースは増加し始めています(ティクトクなど)。
さらに、誤った情報を表す声明には、正確な情報よりも多くの否定的な感情が含まれていることが発見されました。
ただし、正確な情報と不正確な情報の両方に関連する感情は下方に向かっており、時間をかけて政治的声明の一般的に否定的な口調を示しています。
最後に、数年間にわたって発生する誤った情報のカテゴリが発見されました。これは、人々が恐れているか理解していない情報(科学と医学、犯罪、宗教)に関する不正確な声明を共有する傾向があり、日常生活に顕著な公的人物に直接影響を与えることを意味します。
一緒に、これらの洞察が、時間をかけで誤った情報を検出し、軽減できるアルゴリズムの開発を研究者を支援することが期待されています。

要約(オリジナル)

Although misinformation tends to spread online, it can have serious real-world consequences. In order to develop automated tools to detect and mitigate the impact of misinformation, researchers must leverage algorithms that can adapt to the modality (text, images and video), the source, and the content of the false information. However, these characteristics tend to change dynamically across time, making it challenging to develop robust algorithms to fight misinformation spread. Therefore, this paper uses natural language processing to find common characteristics of political misinformation over a twelve year period. The results show that misinformation has increased dramatically in recent years and that it has increasingly started to be shared from sources with primary information modalities of text and images (e.g., Facebook and Instagram), although video sharing sources containing misinformation are starting to increase (e.g., TikTok). Moreover, it was discovered that statements expressing misinformation contain more negative sentiment than accurate information. However, the sentiment associated with both accurate and inaccurate information has trended downward, indicating a generally more negative tone in political statements across time. Finally, recurring misinformation categories were uncovered that occur over multiple years, which may imply that people tend to share inaccurate statements around information they fear or don’t understand (Science and Medicine, Crime, Religion), impacts them directly (Policy, Election Integrity, Economic) or Public Figures who are salient in their daily lives. Together, it is hoped that these insights will assist researchers in developing algorithms that are temporally invariant and capable of detecting and mitigating misinformation across time.

arxiv情報

著者 Erik J Schlicht
発行日 2025-04-08 16:41:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SI パーマリンク