Only My Model On My Data: A Privacy Preserving Approach Protecting one Model and Deceiving Unauthorized Black-Box Models

要約

ディープ ニューラル ネットワークは、顔認識や医療画像分類など、プライバシーとデータ保護が重要な現実世界のタスクに広く適用されています。
画像データが保護されていない場合、個人情報やコンテキスト情報を推測するために悪用される可能性があります。
暗号化などの既存のプライバシー保護方法では、人間ですら認識できない乱れた画像が生成されます。
敵対的攻撃アプローチでは、権限のある利害関係者であっても自動推論が禁止され、商業的および広範な適応に対する実際的なインセンティブが制限されます。
この先駆的な研究は、同様または異なる目的の他の無許可のブラックボックス モデルを回避しながら、許可されたモデルによる正確な推論を維持する人間が知覚可能な画像を生成することにより、未踏の実用的なプライバシー保護のユースケースに取り組み、以前の研究のギャップに対処します。
使用されるデータセットは、画像分類用の ImageNet、アイデンティティ分類用の Celeba-HQ データセット、感情分類用の AffectNet です。
私たちの結果は、生成された画像が保護されたモデルの精度を正常に維持することができ、ImageNet、Celeba-HQ、AffectNet データセット上で未承認のブラックボックス モデルの平均精度をそれぞれ 11.97%、6.63%、55.51% に低下させることができることを示しています。

要約(オリジナル)

Deep neural networks are extensively applied to real-world tasks, such as face recognition and medical image classification, where privacy and data protection are critical. Image data, if not protected, can be exploited to infer personal or contextual information. Existing privacy preservation methods, like encryption, generate perturbed images that are unrecognizable to even humans. Adversarial attack approaches prohibit automated inference even for authorized stakeholders, limiting practical incentives for commercial and widespread adaptation. This pioneering study tackles an unexplored practical privacy preservation use case by generating human-perceivable images that maintain accurate inference by an authorized model while evading other unauthorized black-box models of similar or dissimilar objectives, and addresses the previous research gaps. The datasets employed are ImageNet, for image classification, Celeba-HQ dataset, for identity classification, and AffectNet, for emotion classification. Our results show that the generated images can successfully maintain the accuracy of a protected model and degrade the average accuracy of the unauthorized black-box models to 11.97%, 6.63%, and 55.51% on ImageNet, Celeba-HQ, and AffectNet datasets, respectively.

arxiv情報

著者 Weiheng Chai,Brian Testa,Huantao Ren,Asif Salekin,Senem Velipasalar
発行日 2024-02-14 17:11:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク