要約
正確なモデルに必要なデータが少なくて済むため、少数ショット学習は多くのアプリケーション ドメインで堅牢性と汎用性を示しています。
ただし、信頼できない環境に少数ショット モデルを展開すると、ユーザーが提供するデータのプライバシーを侵害する可能性のある攻撃や敵対者など、プライバシーに関する懸念が生じる可能性があります。
この論文では、データのプライバシーを保護し、モデルの精度を維持する新しいプライバシー保護埋め込み空間を確立することにより、クラウドなどの信頼できない環境での少数ショット学習のプライバシー強化を研究します。
ぼかし、ピクセル化、ガウス ノイズ、微分プライベート ピクセル化 (DP-Pix) などのさまざまな画像プライバシー手法が少数ショット画像分類に与える影響を調べ、結合損失を通じてプライバシー保護表現を学習する方法を提案します。
経験的な結果は、プライバシーが強化された少数ショット学習のために、プライバシーとパフォーマンスのトレードオフをどのように交渉できるかを示しています。
要約(オリジナル)
Requiring less data for accurate models, few-shot learning has shown robustness and generality in many application domains. However, deploying few-shot models in untrusted environments may inflict privacy concerns, e.g., attacks or adversaries that may breach the privacy of user-supplied data. This paper studies the privacy enhancement for the few-shot learning in an untrusted environment, e.g., the cloud, by establishing a novel privacy-preserved embedding space that preserves the privacy of data and maintains the accuracy of the model. We examine the impact of various image privacy methods such as blurring, pixelization, Gaussian noise, and differentially private pixelization (DP-Pix) on few-shot image classification and propose a method that learns privacy-preserved representation through the joint loss. The empirical results show how privacy-performance trade-off can be negotiated for privacy-enhanced few-shot learning.
arxiv情報
著者 | Archit Parnami,Muhammad Usama,Liyue Fan,Minwoo Lee |
発行日 | 2022-08-23 12:15:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google