Machine-generated text detection prevents language model collapse

要約

大規模な言語モデル(LLM)がますます普及するにつれて、生成された出力がWeb全体で増殖し、機械で生成されたコンテンツが人間の著作テキストを希釈する未来を危険にさらしています。
オンラインデータはLLMプリトレーニングの主要なリソースであるため、その後のモデルは合成サンプルの未知の部分でトレーニングできます。
これにより、モデルの崩壊につながります。これにより、LLMSが独自のエラーを強化し、最終的にパフォーマンスが低下する変性プロセスになります。
この研究では、モデルの崩壊に対するデコード戦略の影響を調査し、各モデル生成でのテキストの特性、人間の参照との類似性、および結果として生じるモデルのパフォーマンスを調査します。
最も重要な劣化につながるデコード戦略を使用して、データの起源(人間または合成)が不明であるより現実的なシナリオでモデル崩壊を評価します。
機械で生成されたテキスト検出器を訓練し、モデルの崩壊を軽減するための重要なサンプリングアプローチを提案します。
私たちの方法は、オープンエンドのテキスト生成タスクで2つのLLMバリアント(GPT-2およびSMOLLM2)で検証されています。
私たちは、モデルの崩壊を防ぐだけでなく、十分なヒト執筆サンプルが存在する場合にパフォーマンスを向上させることができることを実証します。
https://github.com/georgedreayson/model_collapseでコードをリリースします。

要約(オリジナル)

As Large Language Models (LLMs) become increasingly prevalent, their generated outputs are proliferating across the web, risking a future where machine-generated content dilutes human-authored text. Since online data is the primary resource for LLM pre-training, subsequent models could be trained on an unknown portion of synthetic samples. This will lead to model collapse, a degenerative process whereby LLMs reinforce their own errors, and ultimately yield a declining performance. In this study, we investigate the impact of decoding strategy on model collapse, analysing the characteristics of text at each model generation, the similarity to human references, and the resulting model performance. Using the decoding strategies that lead to the most significant degradation, we evaluate model collapse in more realistic scenarios where the origin of the data (human or synthetic) is unknown. We train a machine-generated text detector and propose an importance sampling approach to alleviate model collapse. Our method is validated on two LLM variants (GPT-2 and SmolLM2) on the open-ended text generation task. We demonstrate that it can not only prevent model collapse but also improve performance when sufficient human-authored samples are present. We release our code at https://github.com/GeorgeDrayson/model_collapse.

arxiv情報

著者 George Drayson,Emine Yilmaz,Vasileios Lampos
発行日 2025-04-25 16:53:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク