要約
大規模言語モデル (LLM) の出現は、変革的な影響を与えました。
しかし、ChatGPT などの LLM が悪用されて誤った情報が生成される可能性があるため、オンラインの安全性と社会の信頼に重大な懸念が生じています。
研究の基本的な疑問は、LLM が生成した誤った情報は、人間が書いた誤った情報よりも大きな害をもたらすのかということです。
私たちは、検出の困難さの観点からこの問題に取り組むことを提案します。
まず、LLM によって生成された誤った情報の分類を構築します。
次に、LLM を使用して誤った情報を生成するための現実世界の潜在的な方法を分類し、検証します。
次に、広範な実証的調査を通じて、LLM が生成した誤った情報は、同じセマンティクスを持つ人間が作成した誤った情報と比較して、人間や検出器にとって検出するのが難しい可能性があることを発見しました。これは、その誤ったスタイルがより欺瞞的であり、潜在的により大きな害を引き起こす可能性があることを示唆しています。
また、LLM 時代の誤った情報との戦いにおける発見の意味とその対策についても説明します。
要約(オリジナル)
The advent of Large Language Models (LLMs) has made a transformative impact. However, the potential that LLMs such as ChatGPT can be exploited to generate misinformation has posed a serious concern to online safety and public trust. A fundamental research question is: will LLM-generated misinformation cause more harm than human-written misinformation? We propose to tackle this question from the perspective of detection difficulty. We first build a taxonomy of LLM-generated misinformation. Then we categorize and validate the potential real-world methods for generating misinformation with LLMs. Then, through extensive empirical investigation, we discover that LLM-generated misinformation can be harder to detect for humans and detectors compared to human-written misinformation with the same semantics, which suggests it can have more deceptive styles and potentially cause more harm. We also discuss the implications of our discovery on combating misinformation in the age of LLMs and the countermeasures.
arxiv情報
著者 | Canyu Chen,Kai Shu |
発行日 | 2024-04-15 03:01:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google