Are AI-Generated Text Detectors Robust to Adversarial Perturbations?

要約

大規模言語モデル (LLM) の普及により、AI 生成テキストの悪用の可能性についての懸念が生じています。これらのモデルは、人間が生成したテキストによく似たコンテンツを生成する可能性があるためです。
AI 生成テキスト (AIGT) の現在の検出器は、敵対的な摂動に対する堅牢性に欠けており、文字や単語のわずかな変更でも、人間が作成したテキストと AI が生成したテキストの区別が逆転してしまいます。
この論文では、既存の AIGT 検出方法の堅牢性を調査し、新しい検出器である Siamese Calibrated Reconstruction Network (SCRN) を紹介します。
SCRN は、再構成ネットワークを使用してテキストからノイズを追加および除去し、局所的な摂動に対して堅牢な意味表現を抽出します。
また、異なるノイズの下で同等の信頼度の予測を行うようにモデルをトレーニングするシャム キャリブレーション手法も提案します。これにより、敵対的な摂動に対するモデルのロバスト性が向上します。
公開されている 4 つのデータセットでの実験では、SCRN がすべてのベースライン手法を上回っており、敵対的攻撃下で最良のベースライン手法と比較して 6.5\%-18.25\% の絶対精度の向上を達成していることが示されています。
さらに、クロスドメイン、クロスジャンル、混合ソースのシナリオにおいて優れた汎用性を発揮します。
コードは \url{https://github.com/CarlanLark/Robust-AIGC-Detector} で入手できます。

要約(オリジナル)

The widespread use of large language models (LLMs) has sparked concerns about the potential misuse of AI-generated text, as these models can produce content that closely resembles human-generated text. Current detectors for AI-generated text (AIGT) lack robustness against adversarial perturbations, with even minor changes in characters or words causing a reversal in distinguishing between human-created and AI-generated text. This paper investigates the robustness of existing AIGT detection methods and introduces a novel detector, the Siamese Calibrated Reconstruction Network (SCRN). The SCRN employs a reconstruction network to add and remove noise from text, extracting a semantic representation that is robust to local perturbations. We also propose a siamese calibration technique to train the model to make equally confidence predictions under different noise, which improves the model’s robustness against adversarial perturbations. Experiments on four publicly available datasets show that the SCRN outperforms all baseline methods, achieving 6.5\%-18.25\% absolute accuracy improvement over the best baseline method under adversarial attacks. Moreover, it exhibits superior generalizability in cross-domain, cross-genre, and mixed-source scenarios. The code is available at \url{https://github.com/CarlanLark/Robust-AIGC-Detector}.

arxiv情報

著者 Guanhua Huang,Yuchen Zhang,Zhe Li,Yongjian You,Mingze Wang,Zhouwang Yang
発行日 2024-06-26 12:43:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク