Learning to Break Deep Perceptual Hashing: The Use Case NeuralHash

要約

Appleは先日、iCloudサービスにファイルをアップロードする前に、ユーザーデバイス上の児童性的虐待資料(CSAM)を検出するための深層知覚ハッシュシステム「NeuralHash」を公開しました。その結果、ユーザーのプライバシー保護やシステムの信頼性に関して、すぐに社会的な批判が起こりました。本論文では、NeuralHashに基づく深層知覚ハッシュの包括的な実証分析を初めて発表します。具体的には、現在の深層知覚ハッシュはロバストでない可能性があることを示す。敵対者は、勾配に基づくアプローチや標準的な画像変換によって画像にわずかな変化を加えることでハッシュ値を操作し、ハッシュの衝突を強制したり防いだりすることができます。このような攻撃は、悪意のある行為者が検知システムを容易に利用することを可能にする。悪用される素材を隠したり、無実のユーザーに罪を着せたり、あらゆることが可能なのだ。また、ハッシュ値を利用することで、ユーザーの端末に保存されているデータを推測することも可能です。我々の見解では、我々の結果に基づいて、現在の形の深層知覚ハッシュは、一般的に堅牢なクライアントサイドスキャンには適しておらず、プライバシーの観点からも使用すべきではありません。

要約(オリジナル)

Apple recently revealed its deep perceptual hashing system NeuralHash to detect child sexual abuse material (CSAM) on user devices before files are uploaded to its iCloud service. Public criticism quickly arose regarding the protection of user privacy and the system’s reliability. In this paper, we present the first comprehensive empirical analysis of deep perceptual hashing based on NeuralHash. Specifically, we show that current deep perceptual hashing may not be robust. An adversary can manipulate the hash values by applying slight changes in images, either induced by gradient-based approaches or simply by performing standard image transformations, forcing or preventing hash collisions. Such attacks permit malicious actors easily to exploit the detection system: from hiding abusive material to framing innocent users, everything is possible. Moreover, using the hash values, inferences can still be made about the data stored on user devices. In our view, based on our results, deep perceptual hashing in its current form is generally not ready for robust client-side scanning and should not be used from a privacy perspective.

arxiv情報

著者 Lukas Struppek,Dominik Hintersdorf,Daniel Neider,Kristian Kersting
発行日 2022-06-09 07:00:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CR, cs.CV, cs.LG パーマリンク