Privacy Leakage on DNNs: A Survey of Model Inversion Attacks and Defenses

要約

モデル反転 (MI) 攻撃は、事前トレーニングされたモデルへのアクセスを悪用して、トレーニング データに関する個人情報を漏らすことを目的としています。
これらの攻撃により、攻撃者はプライベート トレーニング データと密接に一致する高忠実度のデータを再構築できるため、プライバシーに関する重大な懸念が生じています。
この分野の急速な進歩にもかかわらず、既存の MI の攻撃と防御に関する包括的な概要が不足しています。
このギャップを埋めるために、この文書ではこの分野を徹底的に調査し、全体的な調査を示します。
まず、私たちの研究では、機械学習シナリオに関する従来の MI を簡単にレビューします。
次に、複数のモダリティと学習タスクにわたる \textbf{D}eep \textbf{N}eural \textbf{N} ネットワーク (DNN) に対する最近の多数の攻撃と防御を入念に分析し、比較します。

要約(オリジナル)

Model Inversion (MI) attacks aim to disclose private information about the training data by abusing access to the pre-trained models. These attacks enable adversaries to reconstruct high-fidelity data that closely aligns with the private training data, which has raised significant privacy concerns. Despite the rapid advances in the field, we lack a comprehensive overview of existing MI attacks and defenses. To fill this gap, this paper thoroughly investigates this field and presents a holistic survey. Firstly, our work briefly reviews the traditional MI on machine learning scenarios. We then elaborately analyze and compare numerous recent attacks and defenses on \textbf{D}eep \textbf{N}eural \textbf{N}etworks (DNNs) across multiple modalities and learning tasks.

arxiv情報

著者 Hao Fang,Yixiang Qiu,Hongyao Yu,Wenbo Yu,Jiawei Kong,Baoli Chong,Bin Chen,Xuan Wang,Shu-Tao Xia
発行日 2024-02-06 14:06:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク