Subset-Based Instance Optimality in Private Estimation

要約

差分プライベート推定アルゴリズムのインスタンス最適性の新しい定義を提案します。
私たちの定義では、(a) $D$ を事前に知っており、(b) $ の大きなサブセットでの最悪の場合のパフォーマンスによって評価される、最良のプライベート ベンチマーク アルゴリズムと、すべてのデータセット $D$ に対して同時に競合する最適なアルゴリズムが必要です。
D$。
つまり、潜在的に極端な点が $D$ に追加される場合、ベンチマーク アルゴリズムは適切に実行される必要はありません。
すでに存在する少数の実データ ポイントの削除を処理するだけで済みます。
これにより、私たちのベンチマークは以前の研究で提案されたものよりも大幅に強力になります。
それにも関わらず、実数値データセットに対して、平均値、分位数、$\ell_p$-norm ミニマイザーを含む広範なクラスのデータセット プロパティを推定する際に、インスタンスの最適性の概念を達成するプライベート アルゴリズムを構築する方法を示します。
特に手段については、詳細な分析を提供し、一連の分布仮定の下で、アルゴリズムが同時に既存のアルゴリズムの漸近パフォーマンスに匹敵するか、それを超えることを示します。

要約(オリジナル)

We propose a new definition of instance optimality for differentially private estimation algorithms. Our definition requires an optimal algorithm to compete, simultaneously for every dataset $D$, with the best private benchmark algorithm that (a) knows $D$ in advance and (b) is evaluated by its worst-case performance on large subsets of $D$. That is, the benchmark algorithm need not perform well when potentially extreme points are added to $D$; it only has to handle the removal of a small number of real data points that already exist. This makes our benchmark significantly stronger than those proposed in prior work. We nevertheless show, for real-valued datasets, how to construct private algorithms that achieve our notion of instance optimality when estimating a broad class of dataset properties, including means, quantiles, and $\ell_p$-norm minimizers. For means in particular, we provide a detailed analysis and show that our algorithm simultaneously matches or exceeds the asymptotic performance of existing algorithms under a range of distributional assumptions.

arxiv情報

著者 Travis Dick,Alex Kulesza,Ziteng Sun,Ananda Theertha Suresh
発行日 2023-08-15 17:38:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.IT, cs.LG, math.IT パーマリンク