De-mark: Watermark Removal in Large Language Models

要約

透かし技術は、言語モデル (LM) から生成されたコンテンツに秘密情報を埋め込むことで、機械生成されたコンテンツを識別する有望な方法を提供します。
ただし、透かし入れスキームの堅牢性については十分に調査されていません。
この論文では、n グラムベースの透かしを効果的に削除するために設計された高度なフレームワークである De-mark を紹介します。
私たちの方法では、ランダム選択プローブと呼ばれる新しいクエリ戦略を利用しています。これは、透かしの強度を評価し、n グラム透かし内の赤と緑のリストを識別するのに役立ちます。
Llama3 や ChatGPT などの一般的な LM での実験では、ウォーターマークの削除および悪用タスクにおける De-mark の効率と有効性が実証されています。

要約(オリジナル)

Watermarking techniques offer a promising way to identify machine-generated content via embedding covert information into the contents generated from language models (LMs). However, the robustness of the watermarking schemes has not been well explored. In this paper, we present De-mark, an advanced framework designed to remove n-gram-based watermarks effectively. Our method utilizes a novel querying strategy, termed random selection probing, which aids in assessing the strength of the watermark and identifying the red-green list within the n-gram watermark. Experiments on popular LMs, such as Llama3 and ChatGPT, demonstrate the efficiency and effectiveness of De-mark in watermark removal and exploitation tasks.

arxiv情報

著者 Ruibo Chen,Yihan Wu,Junfeng Guo,Heng Huang
発行日 2024-10-17 17:42:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク