要約
ストリーミング モデルは、大規模なデータ ストリームに対するコンピューティングを抽象化したもので、大規模な最新のデータ分析に対処する一般的な方法です。
このモデルには、次々にデータ ポイントのストリームが存在します。
ストリーミング アルゴリズムでは、データ ストリーム上で 1 回のパスのみが許可されており、その目標は、できるだけ小さなスペースを使用しながらストリーム中に分析を実行することです。
クラスタリング問題 ($k$-means や $k$-median など) は基本的な教師なし機械学習のプリミティブであり、ストリーミング クラスタリング アルゴリズムは過去に広範囲に研究されてきました。
ただし、実際のアプリケーションの多くではデータ プライバシーが中心的な懸念事項となるため、非プライベート クラスタリング アルゴリズムは多くのシナリオに適用できません。
この研究では、$poly(k,
{\it constant} 乗算誤差と $poly(k,d,\log(T))$ 加算誤差を達成するための d,\log(T))$ 空間。
特に、ブラックボックスとしてオフライン DP コアセット アルゴリズムのみを必要とする差分プライベート ストリーミング クラスタリング フレームワークを紹介します。
Ghazi、Kumar、Manurangsi 2020 および Kaplan、Stemmer 2018 を介して既存の DP コアセットの結果をプラグインすることで、(1) $\tilde{O}_\gamma(poly(
任意の $\gamma>0$ に対して k,d,\log(T)))$ 空間があり、加算誤差は $poly(k,d,\log(T))$ または (2) $O(1
$\tilde{O}(k \cdot Poly(d,\log(T)))$ 空間と $poly(k,d,\log(T))$ 加算誤差を使用した )$ 乗法近似。
さらに、私たちのアルゴリズム フレームワークは、継続的リリース設定の下では差分プライベートでもあります。つまり、すべてのタイムスタンプでのアルゴリズムの出力の結合は常に差分プライベートです。
要約(オリジナル)
The streaming model is an abstraction of computing over massive data streams, which is a popular way of dealing with large-scale modern data analysis. In this model, there is a stream of data points, one after the other. A streaming algorithm is only allowed one pass over the data stream, and the goal is to perform some analysis during the stream while using as small space as possible. Clustering problems (such as $k$-means and $k$-median) are fundamental unsupervised machine learning primitives, and streaming clustering algorithms have been extensively studied in the past. However, since data privacy becomes a central concern in many real-world applications, non-private clustering algorithms are not applicable in many scenarios. In this work, we provide the first differentially private streaming algorithms for $k$-means and $k$-median clustering of $d$-dimensional Euclidean data points over a stream with length at most $T$ using $poly(k,d,\log(T))$ space to achieve a {\it constant} multiplicative error and a $poly(k,d,\log(T))$ additive error. In particular, we present a differentially private streaming clustering framework which only requires an offline DP coreset algorithm as a blackbox. By plugging in existing DP coreset results via Ghazi, Kumar, Manurangsi 2020 and Kaplan, Stemmer 2018, we achieve (1) a $(1+\gamma)$-multiplicative approximation with $\tilde{O}_\gamma(poly(k,d,\log(T)))$ space for any $\gamma>0$, and the additive error is $poly(k,d,\log(T))$ or (2) an $O(1)$-multiplicative approximation with $\tilde{O}(k \cdot poly(d,\log(T)))$ space and $poly(k,d,\log(T))$ additive error. In addition, our algorithmic framework is also differentially private under the continual release setting, i.e., the union of outputs of our algorithms at every timestamp is always differentially private.
arxiv情報
著者 | Alessandro Epasto,Tamalika Mukherjee,Peilin Zhong |
発行日 | 2023-07-14 16:11:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google