Adoption of Watermarking Measures for AI-Generated Content and Implications under the EU AI Act

要約

近年、AIが生成する画像は非常に優れたものとなっており、個人が「本物」の画像と見分けがつかなくなることも少なくない。この発展は、AIが生成したコンテンツのオンライン上での急速な拡散と相まって、特に実在の個人になりすます「ディープフェイク」の出現など、一連の社会的リスクを生み出している。電子透かしは、画像やその他のコンテンツに情報を埋め込み、AIが生成したものであることを示す技術であり、AIが生成したコンテンツがもたらすリスクに対処するための主要なメカニズムとして登場した。実際、電子透かしやAIのラベリング措置は、2024年の欧州連合AI法の下を含め、多くの法域で法的要件となりつつある。AI画像生成システムは広く利用されているにもかかわらず、こうした措置の実施状況はほとんど検討されていないのが現状である。さらに、AI法の電子透かしとラベリング要件の実際的な意味合いも、これまで研究されてこなかった。そこで本論文では、画像生成のために広く使用されている50のAIシステムについて、AI法の法的分析に組み込んだ実証的分析を行う。法的分析では、AI法に関連する生成AIの画像展開シナリオを4つのカテゴリーに分類し、各カテゴリーにおいて法的義務がどのように適用されるかを概説する。実証分析では、現在、適切な電子透かし(38%)およびディープフェイクラベリング(8%)を実施しているAI画像生成者は少数派であることがわかりました。これに対して、これらの法的に義務付けられた技術の実装をどのように改善できるか、様々な手段を提案し、画像内の透かしを簡単に検出するためのツールを公開します。

要約(オリジナル)

AI-generated images have become so good in recent years that individuals often cannot distinguish them any more from ‘real’ images. This development, combined with the rapid spread of AI-generated content online, creates a series of societal risks, particularly with the emergence of ‘deep fakes’ that impersonate real individuals. Watermarking, a technique that involves embedding information within images and other content to indicate their AI-generated nature, has emerged as a primary mechanism to address the risks posed by AI-generated content. Indeed, watermarking and AI labelling measures are now becoming a legal requirement in many jurisdictions, including under the 2024 European Union AI Act. Despite the widespread use of AI image generation systems, the current status of the implementation of such measures remains largely unexamined. Moreover, the practical implications of the AI Act’s watermarking and labelling requirements have not previously been studied. The present paper therefore both provides an empirical analysis of 50 widely used AI systems for image generation, embedded into a legal analysis of the AI Act. In our legal analysis, we identify four categories of generative AI image deployment scenarios relevant under the AI Act and outline how the legal obligations apply in each category. In our empirical analysis, we find that only a minority number of AI image generators currently implement adequate watermarking (38%) and deep fake labelling (8%) practices. In response, we suggest a range of avenues of how the implementation of these legally mandated techniques can be improved, and publicly share our tooling for the easy detection of watermarks in images.

arxiv情報

著者 Bram Rijsbosch,Gijs van Dijck,Konrad Kollnig
発行日 2025-06-03 16:23:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CY パーマリンク