要約
個人情報を含むデータを使用して、経験的リスク最小化 (ERM) のフレームワークで予測モデルを構築するのが一般的です。
これらのモデルは予測精度が高い可能性がありますが、機密データに基づいてトレーニングされたこれらのモデルの結果を共有すると、プライバシー攻撃を受けやすい可能性があります。
差分プライバシー (DP) は、機密データから情報を公開する際に生じるプライバシーの損失について数学的に証明可能な境界を提供することで、このようなデータ プライバシーの問題に対処するための魅力的なフレームワークです。
これまでの研究は主に、重み付けされていない ERM に DP を適用することに集中していました。
私たちは、目的関数に対する各個人の貢献にさまざまな重みを割り当てることができる、重要な一般化である加重 ERM (wERM) を考慮します。
理論的な DP 保証を備えた、一般的な wERM 用の最初の差分プライベート アルゴリズムを提案します。
既存の DP-ERM 手順を wERM に拡張することで、一般的な結果加重学習 (OWL) など、個別の治療ルールのためのプライバシー保護学習方法を導き出すための道筋が生まれます。
私たちは、シミュレーション研究と実際の臨床試験の両方で、OWLに適用されたDP-wERMフレームワークのパフォーマンスを評価します。
すべての実証結果は、十分に堅牢なモデルのパフォーマンスを維持しながら、DP 保証を備えた wERM を介して OWL モデルをトレーニングする実現可能性を実証しており、機密データを含む現実世界のシナリオで、提案されているプライバシー保護 OWL 手順を実装することの実用性についての強力な証拠を提供しています。
要約(オリジナル)
It is common practice to use data containing personal information to build predictive models in the framework of empirical risk minimization (ERM). While these models can be highly accurate in prediction, sharing the results from these models trained on sensitive data may be susceptible to privacy attacks. Differential privacy (DP) is an appealing framework for addressing such data privacy issues by providing mathematically provable bounds on the privacy loss incurred when releasing information from sensitive data. Previous work has primarily concentrated on applying DP to unweighted ERM. We consider weighted ERM (wERM), an important generalization, where each individual’s contribution to the objective function can be assigned varying weights. We propose the first differentially private algorithm for general wERM, with theoretical DP guarantees. Extending the existing DP-ERM procedures to wERM creates a pathway for deriving privacy-preserving learning methods for individualized treatment rules, including the popular outcome weighted learning (OWL). We evaluate the performance of the DP-wERM framework applied to OWL in both simulation studies and in a real clinical trial. All empirical results demonstrate the feasibility of training OWL models via wERM with DP guarantees while maintaining sufficiently robust model performance, providing strong evidence for the practicality of implementing the proposed privacy-preserving OWL procedure in real-world scenarios involving sensitive data.
arxiv情報
著者 | Spencer Giddens,Yiwang Zhou,Kevin R. Krull,Tara M. Brinkman,Peter X. K. Song,Fang Liu |
発行日 | 2024-09-27 15:24:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google