SEAL: Semantic Aware Image Watermarking

要約

生成モデルは急速に進化して現実的な出力を生成しています。
しかし、それらの合成出力は、自然とAIの生成されたコンテンツの明確な区別にますます挑戦するようになり、堅牢な透かしのテクニックが必要です。
透かしは通常、ターゲット画像の完全性を維持し、除去の試みに耐え、無関係な画像への不正な複製を防ぐことが期待されます。
このニーズに対処するために、最近の方法は、最初のノイズを使用して拡散モデルによって生成された画像に永続的な透かしを埋め込みました。
しかし、そうするために、彼らは生成された画像の分布を歪めるか、使用されているキーの長い辞書の検索に依存しています。
この論文では、生成された画像に関するセマンティック情報を透かしに直接埋め込む新しい透かし方法を提案し、キーパターンのデータベースを必要とせずに検証できる歪みのない透かしを可能にします。
代わりに、キーパターンは、地域に敏感なハッシュを使用して、画像のセマンティックな埋め込みから推測できます。
さらに、元の画像コンテンツで透かし検出を調整すると、偽造攻撃に対する堅牢性が向上します。
それを実証するために、2つの大部分が見過ごされている攻撃戦略を検討します。(i)攻撃者が初期ノイズを抽出し、同じパターンで新しい画像を生成します。
(ii)おそらく透かしを保持している間、無関係な(潜在的に有害な)オブジェクトを透かしの画像に挿入する攻撃者。
これらの攻撃に対する方法の堅牢性の増加を経験的に検証します。
まとめると、我々の結果は、コンテンツを意識した透かしが画像世代モデルから生じるリスクを軽減できることを示唆しています。

要約(オリジナル)

Generative models have rapidly evolved to generate realistic outputs. However, their synthetic outputs increasingly challenge the clear distinction between natural and AI-generated content, necessitating robust watermarking techniques. Watermarks are typically expected to preserve the integrity of the target image, withstand removal attempts, and prevent unauthorized replication onto unrelated images. To address this need, recent methods embed persistent watermarks into images produced by diffusion models using the initial noise. Yet, to do so, they either distort the distribution of generated images or rely on searching through a long dictionary of used keys for detection. In this paper, we propose a novel watermarking method that embeds semantic information about the generated image directly into the watermark, enabling a distortion-free watermark that can be verified without requiring a database of key patterns. Instead, the key pattern can be inferred from the semantic embedding of the image using locality-sensitive hashing. Furthermore, conditioning the watermark detection on the original image content improves robustness against forgery attacks. To demonstrate that, we consider two largely overlooked attack strategies: (i) an attacker extracting the initial noise and generating a novel image with the same pattern; (ii) an attacker inserting an unrelated (potentially harmful) object into a watermarked image, possibly while preserving the watermark. We empirically validate our method’s increased robustness to these attacks. Taken together, our results suggest that content-aware watermarks can mitigate risks arising from image-generative models.

arxiv情報

著者 Kasra Arabi,R. Teal Witter,Chinmay Hegde,Niv Cohen
発行日 2025-04-09 13:30:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.CV, cs.LG パーマリンク