要約
深層学習モデルは、さまざまなドメインにわたって顕著なパフォーマンスを発揮してきました。
それにもかかわらず、モデルのサイズが急増しているため、エッジ デバイスは推論プロセスの重要な部分をクラウドにオフロードする必要があります。
この手法には多くの利点がありますが、ユーザー データのプライバシーに関する重大な懸念も生じます。
クラウド サーバーの信頼性に疑問があるシナリオでは、データ プライバシーを保護するための実用的で適応性のある方法の必要性が不可欠になります。
このペーパーでは、敵対者に対するモデル反転攻撃の実行の難易度を大幅に高めるように設計された拡張可能なフレームワークである Ensembler を紹介します。
Ensembler は、敵対的サーバー上のモデル アンサンブルを活用し、共同推論中に機密データに摂動をもたらす既存のアプローチと並行して実行します。
私たちの実験は、基本的なガウス ノイズとさえ組み合わせると、Ensembler が画像を再構成攻撃から効果的に保護し、一部の厳密な設定では人間のパフォーマンスを下回る認識レベルを達成し、Ensembler フレームワークを欠くベースライン手法を大幅に上回るパフォーマンスを示すことを示しています。
要約(オリジナル)
Deep learning models have exhibited remarkable performance across various domains. Nevertheless, the burgeoning model sizes compel edge devices to offload a significant portion of the inference process to the cloud. While this practice offers numerous advantages, it also raises critical concerns regarding user data privacy. In scenarios where the cloud server’s trustworthiness is in question, the need for a practical and adaptable method to safeguard data privacy becomes imperative. In this paper, we introduce Ensembler, an extensible framework designed to substantially increase the difficulty of conducting model inversion attacks for adversarial parties. Ensembler leverages model ensembling on the adversarial server, running in parallel with existing approaches that introduce perturbations to sensitive data during colloborative inference. Our experiments demonstrate that when combined with even basic Gaussian noise, Ensembler can effectively shield images from reconstruction attacks, achieving recognition levels that fall below human performance in some strict settings, significantly outperforming baseline methods lacking the Ensembler framework.
arxiv情報
著者 | Dancheng Liu,Jinjun Xiong |
発行日 | 2024-01-19 18:03:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google