要約
拡散モデルに基づいて AI によって生成されたコンテンツが広く使用されているため、誤った情報や著作権侵害に関する重大な懸念が生じています。
透かしは、これらの AI 生成画像を識別し、悪用を防ぐための重要な技術です。
この論文では、堅牢で目に見えない透かしを拡散モデルの出力に埋め込む新しい透かし技術である Shallow Diffuse を紹介します。
拡散サンプリング プロセス全体にわたって透かしを統合する既存のアプローチとは異なり、Shallow Diffuse は、画像生成プロセスにおける低次元部分空間の存在を利用することで、これらのステップを分離します。
この方法により、透かしの大部分がこの部分空間のヌル空間に確実に存在し、画像生成プロセスから効果的に分離されます。
私たちの理論的および経験的分析により、このデカップリング戦略によりデータ生成の一貫性と透かしの検出可能性が大幅に向上することがわかりました。
広範な実験により、当社の Shallow Diffuse が堅牢性と一貫性の点で既存の透かし手法より優れていることがさらに検証されました。
コードは https://github.com/liwd190019/Shallow-Diffuse でリリースされます。
要約(オリジナル)
The widespread use of AI-generated content from diffusion models has raised significant concerns regarding misinformation and copyright infringement. Watermarking is a crucial technique for identifying these AI-generated images and preventing their misuse. In this paper, we introduce Shallow Diffuse, a new watermarking technique that embeds robust and invisible watermarks into diffusion model outputs. Unlike existing approaches that integrate watermarking throughout the entire diffusion sampling process, Shallow Diffuse decouples these steps by leveraging the presence of a low-dimensional subspace in the image generation process. This method ensures that a substantial portion of the watermark lies in the null space of this subspace, effectively separating it from the image generation process. Our theoretical and empirical analyses show that this decoupling strategy greatly enhances the consistency of data generation and the detectability of the watermark. Extensive experiments further validate that our Shallow Diffuse outperforms existing watermarking methods in terms of robustness and consistency. The codes will be released at https://github.com/liwd190019/Shallow-Diffuse.
arxiv情報
著者 | Wenda Li,Huijie Zhang,Qing Qu |
発行日 | 2024-10-28 14:51:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google