Unlearnable Examples Give a False Sense of Security: Piercing through Unexploitable Data with Learnable Examples

要約

不正な悪用からデータを保護することは、特に敵対者/メンバーシップ攻撃などのセキュリティ侵害に関する最近の横行する研究において、プライバシーとセキュリティにとって極めて重要です。
この目的を達成するために、\textit{学習不可能な例} (UE) が、データに知覚できない摂動を追加することで、その上でトレーニングされたモデルが元のクリーンな分布で正確に分類できないようにする、説得力のある保護手段として最近提案されています。
残念ながら、UE は誤ったセキュリティ感を提供していることがわかりました。学習不可能なデータを再び学習可能なデータに変換することで、権限のないユーザーが他の保護されていないデータを利用して保護を解除することを阻止できないからです。
この観察に動機付けられて、保護が解除された UE である \textit{学習可能な無許可例} (LE) を導入することで、新しい脅威を正式に定義します。
このアプローチの中核は、UE を LE の多様体に投影する新しい精製プロセスです。
これは、ピクセルと UE と LE の間の知覚的類似性に条件を付けて UE のノイズを除去する、新しい結合条件付き拡散モデルによって実現されます。
広範な実験により、LE がさまざまなシナリオで教師あり UE と教師なし UE の両方に対して最先端の対抗パフォーマンスを提供することが実証されています。これは、教師あり学習と教師なし学習にわたる UE に対する最初の一般化可能な対抗策です。
コードは \url{https://github.com/jiangw-0/LE_JCDP} で入手できます。

要約(オリジナル)

Safeguarding data from unauthorized exploitation is vital for privacy and security, especially in recent rampant research in security breach such as adversarial/membership attacks. To this end, \textit{unlearnable examples} (UEs) have been recently proposed as a compelling protection, by adding imperceptible perturbation to data so that models trained on them cannot classify them accurately on original clean distribution. Unfortunately, we find UEs provide a false sense of security, because they cannot stop unauthorized users from utilizing other unprotected data to remove the protection, by turning unlearnable data into learnable again. Motivated by this observation, we formally define a new threat by introducing \textit{learnable unauthorized examples} (LEs) which are UEs with their protection removed. The core of this approach is a novel purification process that projects UEs onto the manifold of LEs. This is realized by a new joint-conditional diffusion model which denoises UEs conditioned on the pixel and perceptual similarity between UEs and LEs. Extensive experiments demonstrate that LE delivers state-of-the-art countering performance against both supervised UEs and unsupervised UEs in various scenarios, which is the first generalizable countermeasure to UEs across supervised learning and unsupervised learning. Our code is available at \url{https://github.com/jiangw-0/LE_JCDP}.

arxiv情報

著者 Wan Jiang,Yunfeng Diao,He Wang,Jianxin Sun,Meng Wang,Richang Hong
発行日 2023-08-14 12:35:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.CV, cs.LG パーマリンク