要約
オンラインの偽のニュースモデレートは、偽のニュース制作における大規模な言語モデル(LLMS)の悪意のある使用によってもたらされる新しい課題に直面しています。
既存の作品は、LLMが生成した偽のニュースを個々の側面から検出するのが難しいことを示していますが、その大規模なリリースがニュースエコシステムにどのように影響するかは依然として不足しています。
この研究では、ニューラルニュース推奨システム内のLLMで生成された偽のニュースの効果を調査するために、多様な種類の〜56K生成ニュースを備えたシミュレーションパイプラインとデータセットを開発します。
私たちの調査結果は、LLMが生成したニュースがニュースの推奨に関与しているため、偽のニュースに対するニュースランキングで徐々に有利な立場を失っている真実の崩壊現象を明らかにしています。
さらに、真実の崩壊が親しみやすさから発生する理由について説明し、困惑とニュースランキングの間の正の相関関係を示します。
最後に、LLMが生成した偽のニュースの脅威について議論し、可能な対策を提供します。
利害関係者に、ニュースエコシステムの完全性を維持するために、この新たな課題に対処するよう促します。
要約(オリジナル)
Online fake news moderation now faces a new challenge brought by the malicious use of large language models (LLMs) in fake news production. Though existing works have shown LLM-generated fake news is hard to detect from an individual aspect, it remains underexplored how its large-scale release will impact the news ecosystem. In this study, we develop a simulation pipeline and a dataset with ~56k generated news of diverse types to investigate the effects of LLM-generated fake news within neural news recommendation systems. Our findings expose a truth decay phenomenon, where real news is gradually losing its advantageous position in news ranking against fake news as LLM-generated news is involved in news recommendation. We further provide an explanation about why truth decay occurs from a familiarity perspective and show the positive correlation between perplexity and news ranking. Finally, we discuss the threats of LLM-generated fake news and provide possible countermeasures. We urge stakeholders to address this emerging challenge to preserve the integrity of news ecosystems.
arxiv情報
著者 | Beizhe Hu,Qiang Sheng,Juan Cao,Yang Li,Danding Wang |
発行日 | 2025-04-28 17:32:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google