Federated Learning Privacy: Attacks, Defenses, Applications, and Policy Landscape – A Survey

要約

ディープラーニングは、膨大な数のタスクにおいて驚異的な可能性を示しており、この成長に伴い、データに対する飽くなき欲求が高まっている。しかし、ディープラーニングを可能にするために必要な大量のデータは、個人のデバイスに保存されており、最近のプライバシーに関する懸念は、そのようなデータにアクセスするための課題をさらに浮き彫りにしている。その結果、連合学習(FL)は、潜在的にセンシティブな生データを中央サーバーに送信する必要なく、機械学習モデルの協調学習を可能にする重要なプライバシー保護技術として浮上してきた。しかし、モデルの更新をサーバーに送信することがプライバシー保護につながるという基本的な前提は、更新が「リバースエンジニアリング」されてプライベートな学習データに関する情報を推測されない場合にのみ成り立つ。このプライバシーの前提が成立しないことは、様々な設定で示されている。 このサーベイ論文では、FLにおける様々なプライバシー攻撃と防御方法に関する包括的な文献レビューを行う。これらの攻撃の現在の限界を明らかにし、FLクライアントのプライバシーが破られる可能性のある設定を強調します。産業界で成功したFLアプリケーションのいくつかを分析し、将来の成功のための教訓を導き出します。FLに関するプライバシー規制の新たな状況を調査します。最後に、参加者のデータのプライバシーを守りながら正確なモデルを生成するという、FLが大切にしている目標に向けた今後の方向性を示す。

要約(オリジナル)

Deep learning has shown incredible potential across a vast array of tasks and accompanying this growth has been an insatiable appetite for data. However, a large amount of data needed for enabling deep learning is stored on personal devices and recent concerns on privacy have further highlighted challenges for accessing such data. As a result, federated learning (FL) has emerged as an important privacy-preserving technology enabling collaborative training of machine learning models without the need to send the raw, potentially sensitive, data to a central server. However, the fundamental premise that sending model updates to a server is privacy-preserving only holds if the updates cannot be ‘reverse engineered’ to infer information about the private training data. It has been shown under a wide variety of settings that this premise for privacy does {\em not} hold. In this survey paper, we provide a comprehensive literature review of the different privacy attacks and defense methods in FL. We identify the current limitations of these attacks and highlight the settings in which FL client privacy can be broken. We dissect some of the successful industry applications of FL and draw lessons for future successful adoption. We survey the emerging landscape of privacy regulation for FL. We conclude with future directions for taking FL toward the cherished goal of generating accurate models while preserving the privacy of the data from its participants.

arxiv情報

著者 Joshua C. Zhao,Saurabh Bagchi,Salman Avestimehr,Kevin S. Chan,Somali Chaterji,Dimitris Dimitriadis,Jiacheng Li,Ninghui Li,Arash Nourian,Holger R. Roth
発行日 2024-05-06 16:55:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CR, cs.LG, I.2 パーマリンク