False Claims against Model Ownership Resolution

要約

タイトル:モデル所有権解決に対する偽の主張

要約:
– DNNモデルは、競争上の優位性を構成する知的財産の貴重なものであり、モデル所有者にとって重要です。
– 従って、モデル盗難に対する保護技術を開発することが重要です。
– モデル所有権解決(MOR)は、モデル盗難を抑止するための技術の一種で、告発者が、ウォーターマークや指紋などの証拠を提示して、被疑者モデルが盗まれたものであることを示すことができます。
– この論文は、既存のMOR方式は意図的な被告人に対する堅牢性の問題を考慮しておらず、不十分であることを示しています。
– 悪意のある被告人が、独立した被疑者モデルに対して誤った主張をすることができる方法を示しています。
– この論文は、広く使用されているMOR手法を一般化し、広範な評価を通じて偽の主張が常に成功することを示しました。
– AmazonのRekognition APIを含め、実際の構成に対しても攻撃が成功することを示しました。

要約(オリジナル)

Deep neural network (DNN) models are valuable intellectual property of model owners, constituting a competitive advantage. Therefore, it is crucial to develop techniques to protect against model theft. Model ownership resolution (MOR) is a class of techniques that can deter model theft. A MOR scheme enables an accuser to assert an ownership claim for a suspect model by presenting evidence, such as a watermark or fingerprint, to show that the suspect model was stolen or derived from a source model owned by the accuser. Most of the existing MOR schemes prioritize robustness against malicious suspects, ensuring that the accuser will win if the suspect model is indeed a stolen model. In this paper, we show that common MOR schemes in the literature are vulnerable to a different, equally important but insufficiently explored, robustness concern: a malicious accuser. We show how malicious accusers can successfully make false claims against independent suspect models that were not stolen. Our core idea is that a malicious accuser can deviate (without detection) from the specified MOR process by finding (transferable) adversarial examples that successfully serve as evidence against independent suspect models. To this end, we first generalize the procedures of common MOR schemes and show that, under this generalization, defending against false claims is as challenging as preventing (transferable) adversarial examples. Via systematic empirical evaluation we demonstrate that our false claim attacks always succeed in all prominent MOR schemes with realistic configurations, including against a real-world model: Amazon’s Rekognition API.

arxiv情報

著者 Jian Liu,Rui Zhang,Sebastian Szyller,Kui Ren,N. Asokan
発行日 2023-04-13 15:19:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CR パーマリンク