要約
近年、大規模言語モデル(LLM)や拡散モデル(DM)に代表される生成型人工知能モデルが、コンテンツ制作手法に革命をもたらしている。これらの人工知能生成コンテンツ(AIGC)は、日常生活や仕事の様々な場面に深く浸透している。しかし、これらのテクノロジーは、偽の人工知能生成コンテンツ(FAIGC)の出現にもつながり、本物の情報を見分ける上で新たな課題を投げかけている。AIGC技術は諸刃の剣のようなものであり、その強力な生成能力は有益である一方で、FAIGCの作成と拡散にリスクをもたらすことを認識することが極めて重要である。この調査では、今日のFAIGC手法の空間のより包括的な内訳を提供する新しい分類法を提案する。次に、FAIGCのモダリティと生成技術を探求する。また、FAIGC検出手法を紹介し、様々な観点から関連ベンチマークを要約する。最後に、未解決の課題と今後の研究の有望分野について議論する。
要約(オリジナル)
In recent years, generative artificial intelligence models, represented by Large Language Models (LLMs) and Diffusion Models (DMs), have revolutionized content production methods. These artificial intelligence-generated content (AIGC) have become deeply embedded in various aspects of daily life and work. However, these technologies have also led to the emergence of Fake Artificial Intelligence Generated Content (FAIGC), posing new challenges in distinguishing genuine information. It is crucial to recognize that AIGC technology is akin to a double-edged sword; its potent generative capabilities, while beneficial, also pose risks for the creation and dissemination of FAIGC. In this survey, We propose a new taxonomy that provides a more comprehensive breakdown of the space of FAIGC methods today. Next, we explore the modalities and generative technologies of FAIGC. We introduce FAIGC detection methods and summarize the related benchmark from various perspectives. Finally, we discuss outstanding challenges and promising areas for future research.
arxiv情報
著者 | Xiaomin Yu,Yezhaohui Wang,Yanfang Chen,Zhen Tao,Dinghao Xi,Shichao Song,Simin Niu,Zhiyu Li |
発行日 | 2024-05-03 04:47:01+00:00 |
arxivサイト | arxiv_id(pdf) |