要約
大規模なAIモデル(LAIMS)、特に拡散モデルと大規模な言語モデルの急速な進歩は、AIに生成されたマルチメディアが日常生活のさまざまな側面にますます統合されている新しい時代をマークしました。
多くの分野では有益ですが、このコンテンツは、潜在的な誤用、社会的混乱、倫理的懸念など、重大なリスクを示しています。
その結果、LAIMSによって生成されたマルチメディアの検出が重要になり、関連する研究が著しく増加しました。
それにもかかわらず、LAIM生成マルチメディアの検出に特に焦点を当てた体系的な調査には顕著なギャップが残っています。
これに対処するために、LAIMSが作成したマルチメディア(テキスト、画像、ビデオ、オーディオ、マルチモーダルコンテンツなど)の検出に関する既存の研究を包括的にカバーするための最初の調査を提供します。
具体的には、メディアのモダリティに分類され、2つの視点に沿った検出方法の新しい分類法を導入し、純粋な検出(検出性能を強化することを目的としています)と検出を超えて(一般化可能性、堅牢性、検出可能性の解釈可能性などの属性を追加)。
さらに、この分野の研究者と実践者に貴重なリソースを提供するために、生成メカニズム、パブリックデータセット、オンライン検出ツール、評価メトリックの概要を説明しました。
最も重要なことは、ソーシャルメディアの観点から集中的な分析を提供して、彼らのより広い社会的影響を強調することです。
さらに、検出における現在の課題を特定し、LAIMSによって生成されたマルチメディアの検出において、未開拓、継続的、および新たな問題に対処する将来の研究の方向性を提案します。
この調査の目的は、学問のギャップを埋め、グローバルなAIセキュリティの取り組みに貢献し、デジタル領域の情報の整合性を確保することです。
プロジェクトリンクはhttps://github.com/purdue-m2/detect-laim-generated-multimedia-surveyです。
要約(オリジナル)
The rapid advancement of Large AI Models (LAIMs), particularly diffusion models and large language models, has marked a new era where AI-generated multimedia is increasingly integrated into various aspects of daily life. Although beneficial in numerous fields, this content presents significant risks, including potential misuse, societal disruptions, and ethical concerns. Consequently, detecting multimedia generated by LAIMs has become crucial, with a marked rise in related research. Despite this, there remains a notable gap in systematic surveys that focus specifically on detecting LAIM-generated multimedia. Addressing this, we provide the first survey to comprehensively cover existing research on detecting multimedia (such as text, images, videos, audio, and multimodal content) created by LAIMs. Specifically, we introduce a novel taxonomy for detection methods, categorized by media modality, and aligned with two perspectives: pure detection (aiming to enhance detection performance) and beyond detection (adding attributes like generalizability, robustness, and interpretability to detectors). Additionally, we have presented a brief overview of generation mechanisms, public datasets, online detection tools, and evaluation metrics to provide a valuable resource for researchers and practitioners in this field. Most importantly, we offer a focused analysis from a social media perspective to highlight their broader societal impact. Furthermore, we identify current challenges in detection and propose directions for future research that address unexplored, ongoing, and emerging issues in detecting multimedia generated by LAIMs. Our aim for this survey is to fill an academic gap and contribute to global AI security efforts, helping to ensure the integrity of information in the digital realm. The project link is https://github.com/Purdue-M2/Detect-LAIM-generated-Multimedia-Survey.
arxiv情報
著者 | Li Lin,Neeraj Gupta,Yue Zhang,Hainan Ren,Chun-Hao Liu,Feng Ding,Xin Wang,Xin Li,Luisa Verdoliva,Shu Hu |
発行日 | 2025-05-14 16:37:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google