要約
タイトル:Untargeted Backdoor Watermark:無害でステルス性の高いデータセットの著作権保護に向けて
要約:
– DNNは実践においてその優位性を示しています。
– 高品質(オープンソース)のデータセットに基づいて、研究者や開発者は自分たちの学習手法を容易に評価し改善できるため、これらの急速な発展は大規模なデータセットによって大きく恩恵を受けています。
– しかし、データの収集は通常時間がかかるか、高価であるため、その著作権をどのように保護するかは重要な問題であり、さらなる探求の価値があります。
– この論文では、データセット所有権の検証を再検討し、既存の検証方法が、標的指向のポイズン・オンリー・バックドア・ウォーターマークの性質に基づいて、保護されたデータセットで訓練されたDNNに新しいセキュリティリスクをもたらすことを発見しました。
– この問題を緩和するために、本研究では、異常なモデルの動作が決定論的ではない非標的指向のバックドアウォーターマーキングスキームを探索しました。
– 具体的には、2つの分散性を導入し、その相関を証明し、それに基づいて、汚染されたラベル設定とクリーンなラベル設定の両方の状況下で、非標的指向のバックドアウォーターマークを設計しました。
– 提案された非標的指向のバックドアウォーターマークのデータセット所有権検証に使用する方法についても議論しました。
– ベンチマークデータセット上の実験により、提案手法の効果と既存のバックドア対策への耐性が検証されています。提供コードは以下のURLから確認できます。https://github.com/THUYimingLi/Untargeted_Backdoor_Watermark。
要約(オリジナル)
Deep neural networks (DNNs) have demonstrated their superiority in practice. Arguably, the rapid development of DNNs is largely benefited from high-quality (open-sourced) datasets, based on which researchers and developers can easily evaluate and improve their learning methods. Since the data collection is usually time-consuming or even expensive, how to protect their copyrights is of great significance and worth further exploration. In this paper, we revisit dataset ownership verification. We find that existing verification methods introduced new security risks in DNNs trained on the protected dataset, due to the targeted nature of poison-only backdoor watermarks. To alleviate this problem, in this work, we explore the untargeted backdoor watermarking scheme, where the abnormal model behaviors are not deterministic. Specifically, we introduce two dispersibilities and prove their correlation, based on which we design the untargeted backdoor watermark under both poisoned-label and clean-label settings. We also discuss how to use the proposed untargeted backdoor watermark for dataset ownership verification. Experiments on benchmark datasets verify the effectiveness of our methods and their resistance to existing backdoor defenses. Our codes are available at \url{https://github.com/THUYimingLi/Untargeted_Backdoor_Watermark}.
arxiv情報
著者 | Yiming Li,Yang Bai,Yong Jiang,Yong Yang,Shu-Tao Xia,Bo Li |
発行日 | 2023-04-05 13:32:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI