How You Prompt Matters! Even Task-Oriented Constraints in Instructions Affect LLM-Generated Text Detection

要約

大規模言語モデル (LLM) の悪用 (盗作や誤った情報の拡散など) に対して、最近の研究の多くは、有望な検出パフォーマンスを備えた LLM 生成テキスト検出器を提供しています。
ユーザーが LLM にテキストを生成するように指示する状況 (例: エッセイの執筆) に焦点を当てると、指示を記述するさまざまな方法 (例: どのようなタスク指向の制約を含めるか) が存在します。
この論文では、命令におけるタスク指向の制約でさえ、生成されたテキストに対する現在の検出器のパフォーマンスに一貫性のない原因となる可能性があることを発見しました。
具体的には、現実的な領域として学生のエッセイ執筆に焦点を当て、Ke と Ng (2019) によりエッセイの品質に関する各要因に対するタスク指向の制約を手動で作成します。
私たちの実験では、各タスク指向の制約を持つ命令によって生成されたテキストに対する現在の検出器の検出パフォーマンスの分散は、テキストを複数回生成して命令を言い換えることによって生じる分散よりも最大 20 倍大きいことが示されています。
私たちの発見は、命令内のタスク指向の制約によって引き起こされるこのような分布の変化を検出できる堅牢な検出器を開発するためのさらなる研究を必要とします。

要約(オリジナル)

Against the misuse (e.g., plagiarism or spreading misinformation) of Large Language Models (LLMs), many recent works have presented LLM-generated-text detectors with promising detection performance. Spotlighting a situation where users instruct LLMs to generate texts (e.g., essay writing), there are various ways to write the instruction (e.g., what task-oriented constraint to include). In this paper, we discover that even a task-oriented constraint in instruction can cause the inconsistent performance of current detectors to the generated texts. Specifically, we focus on student essay writing as a realistic domain and manually create the task-oriented constraint for each factor on essay quality by Ke and Ng (2019). Our experiment shows that the detection performance variance of the current detector on texts generated by instruction with each task-oriented constraint is up to 20 times larger than the variance caused by generating texts multiple times and paraphrasing the instruction. Our finding calls for further research on developing robust detectors that can detect such distributional shifts caused by a task-oriented constraint in the instruction.

arxiv情報

著者 Ryuto Koike,Masahiro Kaneko,Naoaki Okazaki
発行日 2023-11-14 18:32:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク