要約
さまざまなドメインで AI エージェントが急増するにつれて、AI モデルの開発には多額の投資が必要となるため、AI モデルの所有権を保護することが重要になっています。
これらのモデルの不正使用や違法配布は知的財産に重大な脅威をもたらすため、効果的な著作権保護対策が必要です。
モデルの透かしは、この問題に対処するための重要な技術として登場し、モデル内に所有権情報を埋め込んで、著作権紛争中に正当な所有権を主張します。
この論文では、モデル透かしへのいくつかの貢献を紹介します。ハッシュ技術を使用した自己認証ブラックボックス透かしプロトコル、敵対的摂動を用いた証拠偽造攻撃に関する研究、敵対的攻撃に対抗するための浄化ステップを含む提案された防御、および浄化にとらわれないカリキュラムです。
透かしの堅牢性とモデルのパフォーマンスを強化するプロキシ学習方法。
実験結果は、透かし入りモデルのセキュリティ、信頼性、パフォーマンスの向上におけるこれらのアプローチの有効性を示しています。
要約(オリジナル)
With the proliferation of AI agents in various domains, protecting the ownership of AI models has become crucial due to the significant investment in their development. Unauthorized use and illegal distribution of these models pose serious threats to intellectual property, necessitating effective copyright protection measures. Model watermarking has emerged as a key technique to address this issue, embedding ownership information within models to assert rightful ownership during copyright disputes. This paper presents several contributions to model watermarking: a self-authenticating black-box watermarking protocol using hash techniques, a study on evidence forgery attacks using adversarial perturbations, a proposed defense involving a purification step to counter adversarial attacks, and a purification-agnostic curriculum proxy learning method to enhance watermark robustness and model performance. Experimental results demonstrate the effectiveness of these approaches in improving the security, reliability, and performance of watermarked models.
arxiv情報
著者 | Erjin Bao,Ching-Chun Chang,Hanrui Wang,Isao Echizen |
発行日 | 2025-01-13 16:55:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google