Disinformation Capabilities of Large Language Models

要約

偽情報の自動生成は、大規模言語モデル (LLM) に関連する重要なリスクとしてよく挙げられます。
情報空間に偽情報コンテンツを氾濫させる理論上の能力は、世界中の社会に劇的な影響を与える可能性があります。
この論文では、英語で誤ったニュース記事を生成する現世代の LLM の偽情報能力に関する包括的な研究を紹介します。
私たちの研究では、20 の偽情報ナラティブを使用して 10 の LLM の能力を評価しました。
私たちは、LLM のいくつかの側面を評価しました。ニュース記事の生成がどの程度優れているか、偽情報の物語に同意または反対する傾向がどの程度強いか、安全警告を生成する頻度はどれくらいかなどです。また、これらを検出する検出モデルの能力も評価しました。
LLM によって生成された記事。
私たちは、LLM は危険な偽情報の物語に同意する説得力のあるニュース記事を生成できると結論付けています。

要約(オリジナル)

Automated disinformation generation is often listed as an important risk associated with large language models (LLMs). The theoretical ability to flood the information space with disinformation content might have dramatic consequences for societies around the world. This paper presents a comprehensive study of the disinformation capabilities of the current generation of LLMs to generate false news articles in the English language. In our study, we evaluated the capabilities of 10 LLMs using 20 disinformation narratives. We evaluated several aspects of the LLMs: how good they are at generating news articles, how strongly they tend to agree or disagree with the disinformation narratives, how often they generate safety warnings, etc. We also evaluated the abilities of detection models to detect these articles as LLM-generated. We conclude that LLMs are able to generate convincing news articles that agree with dangerous disinformation narratives.

arxiv情報

著者 Ivan Vykopal,Matúš Pikuliak,Ivan Srba,Robert Moro,Dominik Macko,Maria Bielikova
発行日 2024-02-23 10:44:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク