Untargeted Backdoor Watermark: Towards Harmless and Stealthy Dataset Copyright Protection

要約

ディープ ニューラル ネットワーク (DNN) は、実際にその優位性を実証しています。
おそらく、DNN の急速な開発は、研究者や開発者が学習方法を簡単に評価および改善できる高品質の (オープンソースの) データセットから大きく恩恵を受けています。
通常、データ収集には時間がかかり、さらには費用がかかるため、著作権を保護する方法は非常に重要であり、さらに調査する価値があります。
このホワイト ペーパーでは、データセットの所有権の検証について再度説明します。
既存の検証方法では、保護されたデータセットでトレーニングされた DNN に新しいセキュリティ リスクが導入されていることがわかりました。これは、ポイズンのみのバックドア ウォーターマークのターゲットを絞った性質によるものです。
この問題を軽減するために、この作業では、異常なモデルの動作が決定論的ではない、ターゲットを絞っていないバックドア透かしスキームを調査します。
具体的には、2 つの分散性を導入し、それらの相関関係を証明します。これに基づいて、ポイズン ラベル設定とクリーン ラベル設定の両方でターゲットを絞らないバックドア ウォーターマークを設計します。
また、データセットの所有権を検証するために、提案されたターゲットを絞っていないバックドア ウォーターマークを使用する方法についても説明します。
ベンチマーク データセットでの実験により、当社の手法の有効性と既存のバックドア防御に対する耐性が検証されます。
私たちのコードは、\url{https://github.com/THUYimingLi/Untargeted_Backdoor_Watermark} で入手できます。

要約(オリジナル)

Deep neural networks (DNNs) have demonstrated their superiority in practice. Arguably, the rapid development of DNNs is largely benefited from high-quality (open-sourced) datasets, based on which researchers and developers can easily evaluate and improve their learning methods. Since the data collection is usually time-consuming or even expensive, how to protect their copyrights is of great significance and worth further exploration. In this paper, we revisit dataset ownership verification. We find that existing verification methods introduced new security risks in DNNs trained on the protected dataset, due to the targeted nature of poison-only backdoor watermarks. To alleviate this problem, in this work, we explore the untargeted backdoor watermarking scheme, where the abnormal model behaviors are not deterministic. Specifically, we introduce two dispersibilities and prove their correlation, based on which we design the untargeted backdoor watermark under both poisoned-label and clean-label settings. We also discuss how to use the proposed untargeted backdoor watermark for dataset ownership verification. Experiments on benchmark datasets verify the effectiveness of our methods and their resistance to existing backdoor defenses. Our codes are available at \url{https://github.com/THUYimingLi/Untargeted_Backdoor_Watermark}.

arxiv情報

著者 Yiming Li,Yang Bai,Yong Jiang,Yong Yang,Shu-Tao Xia,Bo Li
発行日 2023-03-30 10:52:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG パーマリンク