Adversarial Style Augmentation via Large Language Model for Robust Fake News Detection

要約

フェイクニュースの蔓延は個人に悪影響を及ぼし、対処すべき重大な社会課題とみなされています。
フェイクニュースを検出するためのアルゴリズムと洞察力に富んだ機能が多数確認されています。
しかし、最近の LLM とその高度な生成機能により、検出可能な機能の多く (スタイル変換攻撃など) が変更される可能性があり、実際のニュースと区別することがさらに困難になっています。
この研究では、さまざまなスタイル変換攻撃に対して堅牢なフェイク ニュース検出器を訓練するために、敵対的スタイルの拡張である AdStyle を提案しています。
私たちのモデルの主要なメカニズムは、LLM を注意深く使用して、多様かつ一貫した範囲のスタイル変換攻撃プロンプトを自動的に生成することです。
これにより、検出器にとって特に処理が難しいプロンプトの生成が改善されます。
実験の結果、フェイク ニュース ベンチマーク データセットでテストした場合、私たちの拡張戦略により堅牢性と検出パフォーマンスが向上することがわかりました。

要約(オリジナル)

The spread of fake news negatively impacts individuals and is regarded as a significant social challenge that needs to be addressed. A number of algorithmic and insightful features have been identified for detecting fake news. However, with the recent LLMs and their advanced generation capabilities, many of the detectable features (e.g., style-conversion attacks) can be altered, making it more challenging to distinguish from real news. This study proposes adversarial style augmentation, AdStyle, to train a fake news detector that remains robust against various style-conversion attacks. Our model’s key mechanism is the careful use of LLMs to automatically generate a diverse yet coherent range of style-conversion attack prompts. This improves the generation of prompts that are particularly difficult for the detector to handle. Experiments show that our augmentation strategy improves robustness and detection performance when tested on fake news benchmark datasets.

arxiv情報

著者 Sungwon Park,Sungwon Han,Meeyoung Cha
発行日 2024-07-22 11:56:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク