Do Gradient Inversion Attacks Make Federated Learning Unsafe?

要約

フェデレーテッド ラーニング (FL) を使用すると、生データを共有する必要なく、AI モデルの共同トレーニングを行うことができます。
この機能は、患者とデータのプライバシーが最大の関心事である医療アプリケーションにとって特に興味深いものです。
ただし、モデル勾配からのディープ ニューラル ネットワークの反転に関する最近の研究では、トレーニング データの漏洩を防止する上での FL のセキュリティに関する懸念が生じました。
この作業では、文献に示されているこれらの攻撃は、クライアントのトレーニングにバッチ正規化 (BN) 統計の更新が含まれる FL ユースケースでは実用的ではないことを示し、そのようなシナリオで機能する新しいベースライン攻撃を提供します。
さらに、FL での潜在的なデータ漏洩を測定および視覚化する新しい方法を提示します。
私たちの仕事は、FL でのデータ漏洩を測定する再現可能な方法を確立するための一歩であり、差分プライバシーなどのプライバシー保護技術と、定量化可能な指標に基づくモデルの精度との間の最適なトレードオフを決定するのに役立つ可能性があります。
コードは https://nvidia.github.io/NVFlare/research/quantifying-data-leakage で入手できます。

要約(オリジナル)

Federated learning (FL) allows the collaborative training of AI models without needing to share raw data. This capability makes it especially interesting for healthcare applications where patient and data privacy is of utmost concern. However, recent works on the inversion of deep neural networks from model gradients raised concerns about the security of FL in preventing the leakage of training data. In this work, we show that these attacks presented in the literature are impractical in FL use-cases where the clients’ training involves updating the Batch Normalization (BN) statistics and provide a new baseline attack that works for such scenarios. Furthermore, we present new ways to measure and visualize potential data leakage in FL. Our work is a step towards establishing reproducible methods of measuring data leakage in FL and could help determine the optimal tradeoffs between privacy-preserving techniques, such as differential privacy, and model accuracy based on quantifiable metrics. Code is available at https://nvidia.github.io/NVFlare/research/quantifying-data-leakage.

arxiv情報

著者 Ali Hatamizadeh,Hongxu Yin,Pavlo Molchanov,Andriy Myronenko,Wenqi Li,Prerna Dogra,Andrew Feng,Mona G. Flores,Jan Kautz,Daguang Xu,Holger R. Roth
発行日 2023-01-23 16:03:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.CV, cs.DC, cs.LG パーマリンク