要約
テキストから画像への生成モデルの使用が急増しているため、著作権を侵害するコンテンツが生成されるリスクが高いという懸念が生じています。
確率的著作権保護方法はそのような侵害に対する確率的保証を提供しますが、本稿では、これらの保護メカニズムの脆弱性を暴露する新しいオンライン攻撃フレームワークである Virtually Assured Amplification Attack (VA3) を紹介します。
提案されたフレームワークは、生成モデルとの継続的なインタラクションと各エンゲージメントの成功確率の重要な下限に関して、侵害コンテンツが生成される確率を大幅に増幅します。
私たちの理論的および実験的結果は、さまざまなシナリオの下でのアプローチの有効性を示しています。
これらの発見は、テキストから画像への生成モデルの実際の応用において確率論的な著作権保護を実装することの潜在的なリスクを浮き彫りにしています。
コードは https://github.com/South7X/VA3 で入手できます。
要約(オリジナル)
The booming use of text-to-image generative models has raised concerns about their high risk of producing copyright-infringing content. While probabilistic copyright protection methods provide a probabilistic guarantee against such infringement, in this paper, we introduce Virtually Assured Amplification Attack (VA3), a novel online attack framework that exposes the vulnerabilities of these protection mechanisms. The proposed framework significantly amplifies the probability of generating infringing content on the sustained interactions with generative models and a non-trivial lower-bound on the success probability of each engagement. Our theoretical and experimental results demonstrate the effectiveness of our approach under various scenarios. These findings highlight the potential risk of implementing probabilistic copyright protection in practical applications of text-to-image generative models. Code is available at https://github.com/South7X/VA3.
arxiv情報
著者 | Xiang Li,Qianli Shen,Kenji Kawaguchi |
発行日 | 2024-04-02 14:28:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google