On the Privacy of Selection Mechanisms with Gaussian Noise

要約

レポート ノイズ最大値としきい値以上は、2 つの古典的な差分プライベート (DP) 選択メカニズムです。
それらの出力は、一連の低感度クエリにノイズを追加し、(ノイズのある) 応答が特定の条件を満たすクエリの ID を報告することによって取得されます。
これらのメカニズムに対する純粋な DP 保証は、ラプラス ノイズをクエリに追加すると簡単に取得できます。
一方、ガウス ノイズを使用してインスタンス化された場合、これらのメカニズムの出力が離散空間に存在するという事実にもかかわらず、標準的な分析では近似の DP 保証しか得られません。
この研究では、ガウス ノイズを使用したレポート ノイズの最大値およびしきい値以上の分析を再検討し、基礎となるクエリが制限されているという追加の仮定の下で、レポート ノイズの最大値と純粋な事前の DP 境界を提供できることを示します。
事後 DP のしきい値以上の境界。
結果として生じる境界は厳しく、標準的な方法を使用して数値的に評価できる閉じた形式の式に依存します。
経験的に、これらはプライバシーが高く、データが少ない状況では、より厳格なプライバシー会計につながることがわかりました。
さらに、純粋な事後 DP 保証を構成するための単純なプライバシー フィルターを提案し、それを使用して完全適応ガウス スパース ベクトル技術メカニズムを導き出します。
最後に、モビリティとエネルギー消費のデータセットに関する実験を提供します。これは、スパース ベクトル技術が以前のアプローチと実質的に競合し、ハイパーパラメーターの調整が少なくて済むことを示しています。

要約(オリジナル)

Report Noisy Max and Above Threshold are two classical differentially private (DP) selection mechanisms. Their output is obtained by adding noise to a sequence of low-sensitivity queries and reporting the identity of the query whose (noisy) answer satisfies a certain condition. Pure DP guarantees for these mechanisms are easy to obtain when Laplace noise is added to the queries. On the other hand, when instantiated using Gaussian noise, standard analyses only yield approximate DP guarantees despite the fact that the outputs of these mechanisms lie in a discrete space. In this work, we revisit the analysis of Report Noisy Max and Above Threshold with Gaussian noise and show that, under the additional assumption that the underlying queries are bounded, it is possible to provide pure ex-ante DP bounds for Report Noisy Max and pure ex-post DP bounds for Above Threshold. The resulting bounds are tight and depend on closed-form expressions that can be numerically evaluated using standard methods. Empirically we find these lead to tighter privacy accounting in the high privacy, low data regime. Further, we propose a simple privacy filter for composing pure ex-post DP guarantees, and use it to derive a fully adaptive Gaussian Sparse Vector Technique mechanism. Finally, we provide experiments on mobility and energy consumption datasets demonstrating that our Sparse Vector Technique is practically competitive with previous approaches and requires less hyper-parameter tuning.

arxiv情報

著者 Jonathan Lebensold,Doina Precup,Borja Balle
発行日 2024-03-21 14:03:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク