要約
最近、テキストから画像への生成モデルが悪用されて、個人の不正な悪意のある画像が作成され、社会問題が増大しています。
Anti-DreamBooth などの以前のソリューションは、画像に敵対的なノイズを追加して、画像が悪意のある生成のトレーニング データとして使用されるのを防ぎます。
ただし、敵対的ノイズは DiffPure などの敵対的精製方法によって除去できることがわかりました。
そこで、画像の高周波領域に強い摂動を加えて敵対的浄化に対してより堅牢にする新しい敵対的攻撃手法を提案します。
私たちの実験では、敵対的画像は敵対的浄化後もノイズを保持しており、悪意のある画像の生成を妨げていることが示されました。
要約(オリジナル)
Recently, text-to-image generative models have been misused to create unauthorized malicious images of individuals, posing a growing social problem. Previous solutions, such as Anti-DreamBooth, add adversarial noise to images to protect them from being used as training data for malicious generation. However, we found that the adversarial noise can be removed by adversarial purification methods such as DiffPure. Therefore, we propose a new adversarial attack method that adds strong perturbation on the high-frequency areas of images to make it more robust to adversarial purification. Our experiment showed that the adversarial images retained noise even after adversarial purification, hindering malicious image generation.
arxiv情報
著者 | Takuto Onikubo,Yusuke Matsui |
発行日 | 2024-09-12 15:58:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google