XNN: Paradigm Shift in Mitigating Identity Leakage within Cloud-Enabled Deep Learning

要約

クラウドベースの深層学習の領域では、外部の計算リソースの必要性と、プライバシーに関する深刻な懸念、特に ID 漏洩が共存します。
この課題に対処するために、ニューラル ネットワーク機能にランダム化された摂動を注入し、ユーティリティとプライバシーの調和のとれたバランスをとる先駆的な方法論である XNN および XNN-d を導入します。
トレーニング フェーズ向けに設計された XNN は、ランダムな置換と行列乗算技術を巧みに組み合わせて特徴マップを難読化し、トレーニングの整合性を損なうことなく潜在的な侵害からプライベート データを効果的に保護します。
同時に、推論フェーズ用に考案された XNN-d は、生成する敵対的ノイズを統合するために敵対的トレーニングを採用します。
この技術は、個人情報抽出を目的としたブラックボックス アクセス攻撃に効果的に対抗すると同時に、抽出された顔認識ネットワークが混乱した特徴を適切に処理して、正確な識別を保証します。
私たちの評価では、XNN の有効性が実証されており、高いモデル精度を維持しながら ID 漏洩を削減する点で既存の方法を大幅に上回っています。

要約(オリジナル)

In the domain of cloud-based deep learning, the imperative for external computational resources coexists with acute privacy concerns, particularly identity leakage. To address this challenge, we introduce XNN and XNN-d, pioneering methodologies that infuse neural network features with randomized perturbations, striking a harmonious balance between utility and privacy. XNN, designed for the training phase, ingeniously blends random permutation with matrix multiplication techniques to obfuscate feature maps, effectively shielding private data from potential breaches without compromising training integrity. Concurrently, XNN-d, devised for the inference phase, employs adversarial training to integrate generative adversarial noise. This technique effectively counters black-box access attacks aimed at identity extraction, while a distilled face recognition network adeptly processes the perturbed features, ensuring accurate identification. Our evaluation demonstrates XNN’s effectiveness, significantly outperforming existing methods in reducing identity leakage while maintaining a high model accuracy.

arxiv情報

著者 Kaixin Liu,Huixin Xiong,Bingyu Duan,Zexuan Cheng,Xinyu Zhou,Wanqian Zhang,Xiangyu Zhang
発行日 2024-08-09 09:54:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.CV パーマリンク