要約
ソーシャルメディアの台頭によりフェイクニュースの拡散が増幅され、現在ではChatGPTのような大規模言語モデル(LLM)によってさらに複雑化しています。LLMは説得力の高い間違いのない誤った情報の生成を容易にし、一般の人々が真実を見分けることがますます困難になっています。
虚偽。
言語的な手がかりに依存する従来のフェイクニュース検出方法も、効果が薄れてきます。
さらに、現在の検出器は主にバイナリ分類と英語のテキストに焦点を当てており、機械生成された真実のニュースと偽のニュースの区別や、低リソース言語での検出が見落とされることがよくあります。
この目的を達成するために、ウルドゥー語に焦点を当てた機械生成ニュースを含めるように検出スキーマを更新しました。
さらに、精度と堅牢性を向上させるための階層的検出戦略を提案します。
実験では、さまざまな設定における 4 つのデータセットにわたってその有効性が示されています。
要約(オリジナル)
The rise of social media has amplified the spread of fake news, now further complicated by large language models (LLMs) like ChatGPT, which ease the generation of highly convincing, error-free misinformation, making it increasingly challenging for the public to discern truth from falsehood. Traditional fake news detection methods relying on linguistic cues also becomes less effective. Moreover, current detectors primarily focus on binary classification and English texts, often overlooking the distinction between machine-generated true vs. fake news and the detection in low-resource languages. To this end, we updated detection schema to include machine-generated news with focus on the Urdu language. We further propose a hierarchical detection strategy to improve the accuracy and robustness. Experiments show its effectiveness across four datasets in various settings.
arxiv情報
著者 | Muhammad Zain Ali,Yuxia Wang,Bernhard Pfahringer,Tony Smith |
発行日 | 2024-10-25 12:42:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google