要約
機械学習の急速な進化により、ローカル差分プライバシー (LDP) の概念など、機械学習がプライバシーにもたらす脅威のため、プライバシーのさまざまな定義が出現しました。
プライバシーを測定するためのこの従来のアプローチは、多くの分野で広く受け入れられ利用されていますが、推論開示の防止の失敗から敵対者の背景知識の考慮の欠如まで、依然として一定の限界を示しています。
この包括的な研究では、ベイジアン プライバシーを紹介し、ローカル差分プライバシーとそれに対応するベイジアン間の複雑な関係を掘り下げ、ユーティリティとプライバシーのトレードオフについての新しい洞察を明らかにします。
攻撃戦略と防御戦略の両方をカプセル化し、それらの相互作用と有効性を強調するフレームワークを紹介します。
私たちの理論的貢献は、方程式 $\epsilon_{p,a} \leq \frac{1}{\sqrt{2} によってカプセル化された、平均ベイジアン プライバシー (ABP) と最大ベイジアン プライバシー (MBP) の間の厳密な定義と関係に基づいています。
}\sqrt{(\epsilon_{p,m} + \epsilon)\cdot(e^{\epsilon_{p,m} + \epsilon} – 1)}$ および $\xi$-MBP と $2 の等価性
\xi$-LDP は均一な事前配分の下で設立されました。
これらの関係は、さまざまなメカニズムによって提供されるプライバシーの保証についての理解を強化し、$\xi$-LDP を満たすメカニズムは $\xi$-MBP も付与し、その逆も同様であるという認識につながります。
私たちの研究は、将来の実証的探査のための基礎を築くだけでなく、実用性を犠牲にしないプライバシー保護アルゴリズムの設計を強化し、それによって信頼できる機械学習ソリューションの開発を促進することも約束します。
要約(オリジナル)
The swift evolution of machine learning has led to emergence of various definitions of privacy due to the threats it poses to privacy, including the concept of local differential privacy (LDP). Although widely embraced and utilized across numerous domains, this conventional approach to measure privacy still exhibits certain limitations, spanning from failure to prevent inferential disclosure to lack of consideration for the adversary’s background knowledge. In this comprehensive study, we introduce Bayesian privacy and delve into the intricate relationship between local differential privacy and its Bayesian counterparts, unveiling novel insights into utility-privacy trade-offs. We introduce a framework that encapsulates both attack and defense strategies, highlighting their interplay and effectiveness. Our theoretical contributions are anchored in the rigorous definitions and relationships between Average Bayesian Privacy (ABP) and Maximum Bayesian Privacy (MBP), encapsulated by equations $\epsilon_{p,a} \leq \frac{1}{\sqrt{2}}\sqrt{(\epsilon_{p,m} + \epsilon)\cdot(e^{\epsilon_{p,m} + \epsilon} – 1)}$ and the equivalence between $\xi$-MBP and $2\xi$-LDP established under uniform prior distribution. These relationships fortify our understanding of the privacy guarantees provided by various mechanisms, leading to the realization that a mechanism satisfying $\xi$-LDP also confers $\xi$-MBP, and vice versa. Our work not only lays the groundwork for future empirical exploration but also promises to enhance the design of privacy-preserving algorithms that do not compromise on utility, thereby fostering the development of trustworthy machine learning solutions.
arxiv情報
著者 | Xiaojin Zhang,Yulin Fei,Wei Chen,Hai Jin |
発行日 | 2024-03-25 10:06:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google