Interactively Learning Social Media Representations Improves News Source Factuality Detection

要約

ソーシャルメディアの台頭により、偽ニュース、つまり誤った情報を広め、信念を揺るがす目的で発行されるテキストが広範に伝播することが可能になりました。
偽のニュースを迅速に検出することは、特に新しい出来事が発生したときに、誤った情報を防ぐために重要です。
これまでの研究では教師あり学習システムを使用してこの問題に取り組んできましたが、フェイクニュースの拡散を可能にするソーシャルメディア環境の複雑さを自動的にモデル化することは困難です。
それどころか、すべてのニュースを人間がファクトチェックするのは拡張性がありません。
したがって、この論文では、人間が対話的に自動システムがより良いソーシャルメディア表現の品質を学習できるように、この問題に対話的にアプローチすることを提案します。
現実世界の出来事に関して、私たちの実験では、人間とのやり取りがほとんどなかった後でも、ニュースソースの事実を検出するパフォーマンスが向上していることが示されています。

要約(オリジナル)

The rise of social media has enabled the widespread propagation of fake news, text that is published with an intent to spread misinformation and sway beliefs. Rapidly detecting fake news, especially as new events arise, is important to prevent misinformation. While prior works have tackled this problem using supervised learning systems, automatedly modeling the complexities of the social media landscape that enables the spread of fake news is challenging. On the contrary, having humans fact check all news is not scalable. Thus, in this paper, we propose to approach this problem interactively, where humans can interact to help an automated system learn a better social media representation quality. On real world events, our experiments show performance improvements in detecting factuality of news sources, even after few human interactions.

arxiv情報

著者 Nikhil Mehta,Dan Goldwasser
発行日 2023-09-26 14:36:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.SI パーマリンク