要約
著作権法は、創作物を複製、配布、収益化する独占的な権利をクリエイターに与えます。
しかし、テキストから画像への生成における最近の進歩により、著作権の執行に大きな課題が生じています。
これらのテクノロジーにより、著作権で保護されたコンテンツ、芸術作品、肖像画の不正な学習と複製が可能になり、規制されていないコンテンツの拡散につながります。
特に、安定拡散のようなテキストと画像の合成に優れたモデルは、著作権侵害や不正配布のリスクを高めます。機械学習モデルから特定のデータや概念の影響を排除しようとする機械学習のアンラーニングが有望なモデルとして台頭しています。
拡散モデルに根付いた \enquote{著作権の記憶} を排除することで解決します。
しかし、著作権保護シナリオにおけるアンラーニング手法の有効性を評価するための包括的な大規模データセットや標準化されたベンチマークが存在しないため、より効果的なアンラーニング手法の開発が妨げられています。
このギャップに対処するために、CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレーションする新しいパイプラインを導入します。
このデータセットには、アンカー画像、関連するプロンプト、テキストから画像へのモデルによって合成された画像が含まれます。
さらに、私たちは、人間とアーティストの両方の評価を通じて検証された意味情報とスタイル情報に基づいた混合指標を開発し、アンラーニングアプローチの有効性を評価しました。
当社のデータセット、ベンチマーク ライブラリ、および評価指標は、将来の研究と実用的なアプリケーションを促進するために一般公開されます (https://rmpku.github.io/CPDM-page/、ウェブサイト / http://149.104.22.83/unlearning.tar)
.gz、データセット)。
要約(オリジナル)
Copyright law confers upon creators the exclusive rights to reproduce, distribute, and monetize their creative works. However, recent progress in text-to-image generation has introduced formidable challenges to copyright enforcement. These technologies enable the unauthorized learning and replication of copyrighted content, artistic creations, and likenesses, leading to the proliferation of unregulated content. Notably, models like stable diffusion, which excel in text-to-image synthesis, heighten the risk of copyright infringement and unauthorized distribution.Machine unlearning, which seeks to eradicate the influence of specific data or concepts from machine learning models, emerges as a promising solution by eliminating the \enquote{copyright memories} ingrained in diffusion models. Yet, the absence of comprehensive large-scale datasets and standardized benchmarks for evaluating the efficacy of unlearning techniques in the copyright protection scenarios impedes the development of more effective unlearning methods. To address this gap, we introduce a novel pipeline that harmonizes CLIP, ChatGPT, and diffusion models to curate a dataset. This dataset encompasses anchor images, associated prompts, and images synthesized by text-to-image models. Additionally, we have developed a mixed metric based on semantic and style information, validated through both human and artist assessments, to gauge the effectiveness of unlearning approaches. Our dataset, benchmark library, and evaluation metrics will be made publicly available to foster future research and practical applications (https://rmpku.github.io/CPDM-page/, website / http://149.104.22.83/unlearning.tar.gz, dataset).
arxiv情報
著者 | Rui Ma,Qiang Zhou,Yizhu Jin,Daquan Zhou,Bangjun Xiao,Xiuyu Li,Yi Qu,Aishani Singh,Kurt Keutzer,Jingtong Hu,Xiaodong Xie,Zhen Dong,Shanghang Zhang,Shiji Zhou |
発行日 | 2024-06-21 14:58:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google