要約
プライバシー研究において関心と重要性が高まっている 2 つの相互に関連する研究課題は、Authorship Attribution (AA) と Authorship Obfuscation (AO) です。
アーティファクト、特に問題のテキスト t が与えられると、AA ソリューションは多くの候補著者の中から t を真の著者に正確に帰属させることを目的とし、AO ソリューションは t を変更してその真の著者を隠すことを目的とします。
伝統的に、オーサーシップの概念とそれに付随するプライバシーの懸念は、人間のオーサーのみを対象としています。
しかし、近年、NLP におけるニューラル テキスト生成 (NTG) 技術の爆発的な進歩により、人間品質の自由記述テキスト (いわゆる「ニューラル テキスト」) を合成できるようになったため、人間による作成者を考慮しなければならなくなりました。
、マシン、またはそれらの組み合わせ。
悪意を持って使用された場合のニューラル テキストの影響と潜在的な脅威により、従来の AA/AO ソリューションの限界を理解し、ニューラル テキストを扱う新しい AA/AO ソリューションを開発することが重要になっています。
したがって、この調査では、データ マイニングの観点からニューラル テキストの著者の帰属と難読化に関する最近の文献を包括的にレビューし、それらの限界と有望な研究の方向性についての見解を共有します。
要約(オリジナル)
Two interlocking research questions of growing interest and importance in privacy research are Authorship Attribution (AA) and Authorship Obfuscation (AO). Given an artifact, especially a text t in question, an AA solution aims to accurately attribute t to its true author out of many candidate authors while an AO solution aims to modify t to hide its true authorship. Traditionally, the notion of authorship and its accompanying privacy concern is only toward human authors. However, in recent years, due to the explosive advancements in Neural Text Generation (NTG) techniques in NLP, capable of synthesizing human-quality open-ended texts (so-called ‘neural texts’), one has to now consider authorships by humans, machines, or their combination. Due to the implications and potential threats of neural texts when used maliciously, it has become critical to understand the limitations of traditional AA/AO solutions and develop novel AA/AO solutions in dealing with neural texts. In this survey, therefore, we make a comprehensive review of recent literature on the attribution and obfuscation of neural text authorship from a Data Mining perspective, and share our view on their limitations and promising research directions.
arxiv情報
著者 | Adaku Uchendu,Thai Le,Dongwon Lee |
発行日 | 2023-03-13 16:05:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google