On the Reliability of Watermarks for Large Language Models

要約

大規模言語モデル (LLM) は現在、日常使用に導入されており、今後 10 年間で大量のテキストを生成できるようになりました。
機械によって生成されたテキストは、インターネット上で人間が書いたテキストに取って代わられる可能性があり、スピアフィッシング攻撃やソーシャル メディア ボットなどの悪意のある目的に使用される可能性があります。
透かしは、LLM によって生成されたテキストの検出と文書化を可能にすることで、そのような害を軽減するためのシンプルで効果的な戦略です。
しかし、重要な疑問が残ります。実際の現実的な環境において、透かしはどの程度信頼できるのでしょうか?
そこでは、透かし入りのテキストが他のテキスト ソースと混合され、人間のライターや他の言語モデルによって言い換えられ、社会的および技術的な両方の幅広い分野のアプリケーションに使用される可能性があります。
このペーパーでは、さまざまな検出スキームを調査し、透かし検出能力を定量化し、透かしを確実に検出するために各シナリオでどれだけの機械生成テキストを観察する必要があるかを判断します。
特に、人による言い換えに直面した場合の透かしの信頼性を調査する人体研究に焦点を当てます。
私たちはウォーターマークベースの検出を他の検出戦略と比較し、特にサンプルの複雑さの点で、全体的にウォーターマークが信頼できるソリューションであることを発見しました。私たちが検討するすべての攻撃について、より多くの例が与えられるほどウォーターマークの証拠が強化され、最終的にウォーターマークが検出されます。

要約(オリジナル)

Large language models (LLMs) are now deployed to everyday use and positioned to produce large quantities of text in the coming decade. Machine-generated text may displace human-written text on the internet and has the potential to be used for malicious purposes, such as spearphishing attacks and social media bots. Watermarking is a simple and effective strategy for mitigating such harms by enabling the detection and documentation of LLM-generated text. Yet, a crucial question remains: How reliable is watermarking in realistic settings in the wild? There, watermarked text might be mixed with other text sources, paraphrased by human writers or other language models, and used for applications in a broad number of domains, both social and technical. In this paper, we explore different detection schemes, quantify their power at detecting watermarks, and determine how much machine-generated text needs to be observed in each scenario to reliably detect the watermark. We especially highlight our human study, where we investigate the reliability of watermarking when faced with human paraphrasing. We compare watermark-based detection to other detection strategies, finding overall that watermarking is a reliable solution, especially because of its sample complexity – for all attacks we consider, the watermark evidence compounds the more examples are given, and the watermark is eventually detected.

arxiv情報

著者 John Kirchenbauer,Jonas Geiping,Yuxin Wen,Manli Shu,Khalid Saifullah,Kezhi Kong,Kasun Fernando,Aniruddha Saha,Micah Goldblum,Tom Goldstein
発行日 2023-06-07 17:58:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CR, cs.LG パーマリンク