要約
画像の透かし手法は、小さな透かし領域を処理するように調整されていません。
これにより、画像の一部が異なるソースから取得されたり、編集されたりする現実のシナリオでのアプリケーションが制限されます。
Watermark Anything Model (WAM) と呼ばれる、ローカライズされた画像透かし埋め込み用の深層学習モデルを導入します。
WAM エンベッダーは入力画像を気づかれないように変更しますが、エクストラクターは受信した画像を透かしのある領域と透かしの入っていない領域に分割し、透かしが入っていることが判明した領域から 1 つまたは複数の隠されたメッセージを復元します。
モデルは低解像度で知覚制約なしで共同トレーニングされ、知覚不能性と複数の透かしについて事後トレーニングが行われます。
実験によれば、WAM は、高解像度の画像であっても、特に修復やスプライシングに対する感知性と堅牢性の点で、最先端の方法と競合することができます。
さらに、新しい機能も提供します。WAM は、256 ドル× 256 の少額であっても、結合された画像内の透かし入り領域を特定し、複数の小さな領域 (画像表面の 10% 以下) から 1 ビット未満のエラーで個別の 32 ビット メッセージを抽出できます。
$画像。
要約(オリジナル)
Image watermarking methods are not tailored to handle small watermarked areas. This restricts applications in real-world scenarios where parts of the image may come from different sources or have been edited. We introduce a deep-learning model for localized image watermarking, dubbed the Watermark Anything Model (WAM). The WAM embedder imperceptibly modifies the input image, while the extractor segments the received image into watermarked and non-watermarked areas and recovers one or several hidden messages from the areas found to be watermarked. The models are jointly trained at low resolution and without perceptual constraints, then post-trained for imperceptibility and multiple watermarks. Experiments show that WAM is competitive with state-of-the art methods in terms of imperceptibility and robustness, especially against inpainting and splicing, even on high-resolution images. Moreover, it offers new capabilities: WAM can locate watermarked areas in spliced images and extract distinct 32-bit messages with less than 1 bit error from multiple small regions – no larger than 10% of the image surface – even for small $256\times 256$ images.
arxiv情報
著者 | Tom Sander,Pierre Fernandez,Alain Durmus,Teddy Furon,Matthijs Douze |
発行日 | 2024-11-11 18:49:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google