要約
視覚的なコンテンツの作成のための生成AIツールの最近の拡散特に、視覚的なアートワークのコンテキストでは、著作権侵害と偽造に関する深刻な懸念が生じました。
これらのモデルをトレーニングするために使用される大規模なデータセットには、多くの場合、著作権で保護されていないアートワークの混合物が含まれています。
生成モデルがトレーニングパターンを記憶する傾向を考えると、著作権違反の程度が変化しやすくなります。
最近提案されたDeepfakeart Challenge Benchmarkに基づいて、この作品は、著作権取り込みまたは鍛造AIに生成されたアートを検出するために設計された対照的な学習フレームワークであるDFA-CONを紹介します。
DFA-CONは、対照的な学習フレームワーク内で、オリジナルのアートワークとその偽造カウンターパートの間で親和性をもたらす差別的表現スペースを学びます。
このモデルは、入力、スタイルの転送、敵対的な摂動、CutMixなど、複数の攻撃タイプでトレーニングされています。
評価の結果は、ほとんどの攻撃タイプで堅牢な検出性能を示し、最近の前提条件の基礎モデルよりも優れています。
コードとモデルのチェックポイントは、受け入れられると公開されます。
要約(オリジナル)
Recent proliferation of generative AI tools for visual content creation-particularly in the context of visual artworks-has raised serious concerns about copyright infringement and forgery. The large-scale datasets used to train these models often contain a mixture of copyrighted and non-copyrighted artworks. Given the tendency of generative models to memorize training patterns, they are susceptible to varying degrees of copyright violation. Building on the recently proposed DeepfakeArt Challenge benchmark, this work introduces DFA-CON, a contrastive learning framework designed to detect copyright-infringing or forged AI-generated art. DFA-CON learns a discriminative representation space, posing affinity among original artworks and their forged counterparts within a contrastive learning framework. The model is trained across multiple attack types, including inpainting, style transfer, adversarial perturbation, and cutmix. Evaluation results demonstrate robust detection performance across most attack types, outperforming recent pretrained foundation models. Code and model checkpoints will be released publicly upon acceptance.
arxiv情報
著者 | Haroon Wahab,Hassan Ugail,Irfan Mehmood |
発行日 | 2025-05-13 13:23:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google