Black-box Dataset Ownership Verification via Backdoor Watermarking

要約

タイトル:バックドア型ウォーターマーキングによるブラックボックスデータセット所有権検証

要約:

– 深層学習、特にディープニューラルネットワーク(DNN)は、高い効果と効率性のために多くの重要なアプリケーションで幅広く採用されている。
– DNNの急速な発展は、高品質のデータセット(例えば、ImageNet)が存在することによって恩恵を受けており、これにより研究者や開発者は、自らのメソッドのパフォーマンスを簡単に確認することができる。
– 現在、ほぼすべての既存のリリースされたデータセットには、商業目的には許可を得なければ採用できないという制限があるが、それを確実に保証する方法はまだない。
– 本論文では、リリースされたデータセットの保護を、(疑わしい)第三者のモデルのトレーニングに採用されているかどうかを検証することとして定式化する。そのため、防衛側はモデルをクエリできる一方で、そのパラメータやトレーニングの詳細な情報を持たない。これに基づき、外部パターンをバックドア型ウォーターマーキングで埋め込み、所有権検証を保護することを提案する。
– 本研究は、データセットウォーターマーキングとデータセット検証の2つの主要な部分から構成されており、毒ばかりのバックドア攻撃(BadNets)をデータセットウォーターマーキングに活用し、仮説検定ガイド付きのデータセット検証方法を設計します。私たちはまた、私たちの方法のいくつかの理論的分析を提供しています。
– 異なるタスクの複数のベンチマークデータセットで実験が行われ、私たちの方法の効果が検証された。本研究の主要な実験を再現するためのコードは、\url{https://github.com/THUYimingLi/DVBW}で利用可能である。

要約(オリジナル)

Deep learning, especially deep neural networks (DNNs), has been widely and successfully adopted in many critical applications for its high effectiveness and efficiency. The rapid development of DNNs has benefited from the existence of some high-quality datasets ($e.g.$, ImageNet), which allow researchers and developers to easily verify the performance of their methods. Currently, almost all existing released datasets require that they can only be adopted for academic or educational purposes rather than commercial purposes without permission. However, there is still no good way to ensure that. In this paper, we formulate the protection of released datasets as verifying whether they are adopted for training a (suspicious) third-party model, where defenders can only query the model while having no information about its parameters and training details. Based on this formulation, we propose to embed external patterns via backdoor watermarking for the ownership verification to protect them. Our method contains two main parts, including dataset watermarking and dataset verification. Specifically, we exploit poison-only backdoor attacks ($e.g.$, BadNets) for dataset watermarking and design a hypothesis-test-guided method for dataset verification. We also provide some theoretical analyses of our methods. Experiments on multiple benchmark datasets of different tasks are conducted, which verify the effectiveness of our method. The code for reproducing main experiments is available at \url{https://github.com/THUYimingLi/DVBW}.

arxiv情報

著者 Yiming Li,Mingyan Zhu,Xue Yang,Yong Jiang,Tao Wei,Shu-Tao Xia
発行日 2023-03-31 01:11:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG パーマリンク