要約
大規模言語モデル(LLM)の分野における急速な進歩は、その比類ない能力によって大きな利益をもたらすことを予感させる。しかし、これらのモデルが悪用される可能性を認識することは非常に重要であり、社会的・倫理的なジレンマを引き起こす可能性がある。合成テキストを識別することを中心とした先行する数多くの取り組みにもかかわらず、既存の検出システムのほとんどは、ChatGPTやGPT-4のような最新のLLMによって合成されたデータを識別することができない。この課題に対して、我々は、幅広い分野の合成テキストを識別するのに適した、控えめでありながら強力な検出アプローチを紹介する。さらに、我々の検出器は、様々なモデルアーキテクチャと復号化ストラテジーにおいて一様に優れた性能を示す。また、強力な検出回避技術を用いて生成されたテキストを識別する能力も有している。私たちの包括的な研究は、特に急速に進歩し適応性が高まっているAI技術の文脈において、機械生成テキスト検出メカニズムの頑健性と効率性を高めるという私たちのコミットメントを強調しています。
要約(オリジナル)
The burgeoning progress in the field of Large Language Models (LLMs) heralds significant benefits due to their unparalleled capacities. However, it is critical to acknowledge the potential misuse of these models, which could give rise to a spectrum of social and ethical dilemmas. Despite numerous preceding efforts centered around distinguishing synthetic text, most existing detection systems fail to identify data synthesized by the latest LLMs, such as ChatGPT and GPT-4. In response to this challenge, we introduce an unpretentious yet potent detection approach proficient in identifying synthetic text across a wide array of fields. Moreover, our detector demonstrates outstanding performance uniformly across various model architectures and decoding strategies. It also possesses the capability to identify text generated utilizing a potent detection-evasion technique. Our comprehensive research underlines our commitment to boosting the robustness and efficiency of machine-generated text detection mechanisms, particularly in the context of swiftly progressing and increasingly adaptive AI technologies.
arxiv情報
著者 | Haolan Zhan,Xuanli He,Qiongkai Xu,Yuxiang Wu,Pontus Stenetorp |
発行日 | 2023-08-04 06:07:49+00:00 |
arxivサイト | arxiv_id(pdf) |