要約
機械で生成されたテキストは、人間が作成したテキストと区別することがますます難しくなっています。
強力なオープンソース モデルが無料で入手でき、生成モデルへのアクセスを民主化するユーザー フレンドリーなツールが急増しています。
この調査の最初のプレプリントの直後にリリースされた ChatGPT は、これらの傾向を象徴しています。
最先端の自然言語生成 (NLG) システムの大きな可能性は、乱用の多くの手段によって弱められています。
機械生成テキストの検出は、NLG モデルの悪用を減らすための重要な対策であり、重大な技術的課題と多くの未解決の問題があります。
1) 現代の NLG システムによってもたらされる脅威モデルの広範な分析、および 2) これまでの機械生成テキスト検出方法の最も完全なレビューの両方を含む調査を提供します。
この調査では、機械で生成されたテキストをサイバーセキュリティと社会的文脈の中に配置し、最も重大な脅威モデルに対処する将来の作業のための強力なガイダンスを提供し、検出システム自体が公平性、堅牢性、および説明責任を通じて信頼性を実証できるようにします。
要約(オリジナル)
Machine generated text is increasingly difficult to distinguish from human authored text. Powerful open-source models are freely available, and user-friendly tools that democratize access to generative models are proliferating. ChatGPT, which was released shortly after the first preprint of this survey, epitomizes these trends. The great potential of state-of-the-art natural language generation (NLG) systems is tempered by the multitude of avenues for abuse. Detection of machine generated text is a key countermeasure for reducing abuse of NLG models, with significant technical challenges and numerous open problems. We provide a survey that includes both 1) an extensive analysis of threat models posed by contemporary NLG systems, and 2) the most complete review of machine generated text detection methods to date. This survey places machine generated text within its cybersecurity and social context, and provides strong guidance for future work addressing the most critical threat models, and ensuring detection systems themselves demonstrate trustworthiness through fairness, robustness, and accountability.
arxiv情報
著者 | Evan Crothers,Nathalie Japkowicz,Herna Viktor |
発行日 | 2023-02-16 04:25:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google