Differentially Private Sliced Inverse Regression: Minimax Optimality and Algorithm

要約

データ駆動型アプリケーションの普及が進んでいることにより、プライバシーの保護は高次元データ分析における重大な懸念事項となっています。
Li (1991) によって提案されたスライス逆回帰は、十分な統計情報を維持しながら共変量の次元を削減するために広く使用されている統計手法として浮上しました。
この論文では、十分な次元削減のコンテキストでプライバシーの問題に対処するために特別に設計された、最適な差分プライベート アルゴリズムを提案します。
低次元設定と高次元設定の両方で、差分プライベートスライス逆回帰の下限を確立します。
さらに、対数因数までのミニマックス下限を達成する差分プライベートアルゴリズムを開発します。
シミュレーションと実際のデータ分析の組み合わせを通じて、縮小された次元空間内で重要な情報を保存しながらプライバシーを保護する際の、これらの差分プライベート アルゴリズムの有効性を示します。
自然な拡張として、差分プライベート疎主成分分析に類似した下限と上限を容易に提供できます。これは、統計および機械学習コミュニティにとっても潜在的な関心を引く可能性のあるトピックです。

要約(オリジナル)

Privacy preservation has become a critical concern in high-dimensional data analysis due to the growing prevalence of data-driven applications. Proposed by Li (1991), sliced inverse regression has emerged as a widely utilized statistical technique for reducing covariate dimensionality while maintaining sufficient statistical information. In this paper, we propose optimally differentially private algorithms specifically designed to address privacy concerns in the context of sufficient dimension reduction. We proceed to establish lower bounds for differentially private sliced inverse regression in both the low and high-dimensional settings. Moreover, we develop differentially private algorithms that achieve the minimax lower bounds up to logarithmic factors. Through a combination of simulations and real data analysis, we illustrate the efficacy of these differentially private algorithms in safeguarding privacy while preserving vital information within the reduced dimension space. As a natural extension, we can readily offer analogous lower and upper bounds for differentially private sparse principal component analysis, a topic that may also be of potential interest to the statistical and machine learning community.

arxiv情報

著者 Xintao Xia,Linjun Zhang,Zhanrui Cai
発行日 2024-01-16 06:47:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG, math.ST, stat.ML, stat.TH パーマリンク