要約
$(\varepsilon, \delta)$-差分プライバシーのもとでスパースヒストグラムを解放する問題を考えます。
安定性ヒストグラムは、ラプラスまたはガウス分布からのノイズをゼロ以外のエントリに個別に追加し、しきい値を下回るノイズの多いカウントを削除します。
これにより、隣接するヒストグラム間の新しい非ゼロ値の導入は、最大 $\delta$ の確率でのみ明らかになり、通常、しきい値の値がメカニズムの誤差を支配します。
ガウスノイズを伴う安定性ヒストグラムの変形を考慮します。
最近の研究 ([Joseph and Yu、COLT ’24] および [Lebeda、SOSA ’25]) は、相関ガウス ノイズを使用してプライベート ヒストグラムの誤差を削減しました。
ただし、これらの手法は非常にまばらな環境では直接適用できません。
代わりに、Lebeda の手法を採用し、スパース境界がある場合にのみ、相関ノイズを非ゼロ カウントに追加することでノイズの大きさを低減できることを示します。
これにより、非相関ノイズ メカニズムと比較して最大 $1/2$ まで低いしきい値を使用できるようになります。
次に、スパース性の既知の限界がない設定にメカニズムを拡張します。
さらに、相関ノイズによって、より実用的な離散ガウス機構に対して同様の改善が得られることを示します。
要約(オリジナル)
We consider the problem of releasing a sparse histogram under $(\varepsilon, \delta)$-differential privacy. The stability histogram independently adds noise from a Laplace or Gaussian distribution to the non-zero entries and removes those noisy counts below a threshold. Thereby, the introduction of new non-zero values between neighboring histograms is only revealed with probability at most $\delta$, and typically, the value of the threshold dominates the error of the mechanism. We consider the variant of the stability histogram with Gaussian noise. Recent works ([Joseph and Yu, COLT ’24] and [Lebeda, SOSA ’25]) reduced the error for private histograms using correlated Gaussian noise. However, these techniques can not be directly applied in the very sparse setting. Instead, we adopt Lebeda’s technique and show that adding correlated noise to the non-zero counts only allows us to reduce the magnitude of noise when we have a sparsity bound. This, in turn, allows us to use a lower threshold by up to a factor of $1/2$ compared to the non-correlated noise mechanism. We then extend our mechanism to a setting without a known bound on sparsity. Additionally, we show that correlated noise can give a similar improvement for the more practical discrete Gaussian mechanism.
arxiv情報
著者 | Christian Janos Lebeda,Lukas Retschmeier |
発行日 | 2024-12-13 18:51:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google