Is Contrasting All You Need? Contrastive Learning for the Detection and Attribution of AI-generated Text

要約

大規模言語モデルの開発における大幅な進歩により、人間が生成したテキストと AI が生成したテキストの区別が曖昧になってきました。
AI によって生成されたテキストがますます普及し、その検出が困難になっていることが、私たちの社会に新たな課題をもたらしています。
この論文では、特定の入力テキストが人間によって生成されたのか AI によって生成されたのかを予測し、テキストの作成者を明らかにするように設計されたトリプレット ネットワーク対照学習フレームワークである WhosAI を提案することにより、AI によって生成されたテキストの検出と帰属の問題に取り組みます。

既存のほとんどのアプローチとは異なり、私たちが提案するフレームワークは、複数のジェネレーターから意味論的な類似性表現を一度に学習することを目的としており、検出タスクと属性タスクの両方を同等に処理します。
さらに、WhosAI はモデルに依存せず、生成されたインスタンスをフレームワークによって学習された埋め込み空間に組み込むことで、新しい AI テキスト生成モデルのリリースに合わせてスケーラブルです。
20 万件のニュース記事の TuringBench ベンチマークの実験結果は、私たちが提案したフレームワークがチューリング テストと著者帰属タスクの両方で優れた結果を達成し、TuringBench ベンチマーク リーダーボードにリストされているすべての手法を上回っていることを示しています。

要約(オリジナル)

The significant progress in the development of Large Language Models has contributed to blurring the distinction between human and AI-generated text. The increasing pervasiveness of AI-generated text and the difficulty in detecting it poses new challenges for our society. In this paper, we tackle the problem of detecting and attributing AI-generated text by proposing WhosAI, a triplet-network contrastive learning framework designed to predict whether a given input text has been generated by humans or AI and to unveil the authorship of the text. Unlike most existing approaches, our proposed framework is conceived to learn semantic similarity representations from multiple generators at once, thus equally handling both detection and attribution tasks. Furthermore, WhosAI is model-agnostic and scalable to the release of new AI text-generation models by incorporating their generated instances into the embedding space learned by our framework. Experimental results on the TuringBench benchmark of 200K news articles show that our proposed framework achieves outstanding results in both the Turing Test and Authorship Attribution tasks, outperforming all the methods listed in the TuringBench benchmark leaderboards.

arxiv情報

著者 Lucio La Cava,Davide Costa,Andrea Tagarelli
発行日 2024-07-12 15:44:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY, cs.HC, physics.soc-ph パーマリンク