要約
この論文では、まず、ベイジアン プライバシー定義と総変動距離プライバシー定義に基づいた、フェデレーテッド ラーニングにおけるプライバシーとユーティリティの均衡の理論的基礎を紹介します。
次に、 \textit{Learn-to-Distort-Data} フレームワークを紹介します。これは、プライバシー保護メカニズムによって導入される歪みを学習可能な変数として明示的にモデル化し、それを
モデルパラメータ。
データの歪みに基づいて、さまざまなプライバシー保護メカニズムに対するフレームワークの適用可能性を実証し、敵対的トレーニング、入力の堅牢性、学習不可能な例などの関連領域との関係を強調します。
これらの接続により、これらの分野のテクニックを活用して、\textit{Learn-to-Distort-Data} フレームワークの下でのフェデレーション ラーニングにおけるプライバシーとユーティリティの均衡のための効果的なアルゴリズムを設計できるようになります。
要約(オリジナル)
In this paper, we first give an introduction to the theoretical basis of the privacy-utility equilibrium in federated learning based on Bayesian privacy definitions and total variation distance privacy definitions. We then present the \textit{Learn-to-Distort-Data} framework, which provides a principled approach to navigate the privacy-utility equilibrium by explicitly modeling the distortion introduced by the privacy-preserving mechanism as a learnable variable and optimizing it jointly with the model parameters. We demonstrate the applicability of our framework to a variety of privacy-preserving mechanisms on the basis of data distortion and highlight its connections to related areas such as adversarial training, input robustness, and unlearnable examples. These connections enable leveraging techniques from these areas to design effective algorithms for privacy-utility equilibrium in federated learning under the \textit{Learn-to-Distort-Data} framework.
arxiv情報
著者 | Xiaojin Zhang,Mingcong Xu,Wei Chen |
発行日 | 2024-07-09 16:11:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google