要約
差分プライバシーは、データセット内のデータ提供者の機密情報を保護するために設計された、広く採用されているフレームワークである。これは、データを保存・処理するサーバーとデータ利用者の間のインターフェースに制御されたノイズを適用することに基づいている。ローカル・ディファレンシャル・プライバシーは、データ提供者が自分のデータに対して個別にプライバシゼーション・メカニズムを適用できるようにするものです。そのため、サーバーやデータ収集者が信頼できないような状況でも保護することができる。しかし、ノイズの導入は、特に個々のデータ構成要素間の相関関係を歪めることによって、必然的にデータの有用性に影響を与える。この歪みは、因果関係の発見のようなタスクにとって有害である。本論文では、様々なよく知られた局所的に異なるプライバシーのメカニズムを検討し、これらのメカニズムによって難読化されたデータに適用した場合に、それらのメカニズムが提供するプライバシーと、因果学習のアルゴリズムが生成する因果構造の精度との間のトレードオフを比較する。我々の分析は、因果発見タスクに適切な局所的差分非公開プロトコルを選択するための貴重な洞察をもたらす。我々の知見は、研究者や実務家が局所的な私的因果発見を行う際の助けとなることが期待される。
要約(オリジナル)
Differential privacy is a widely adopted framework designed to safeguard the sensitive information of data providers within a data set. It is based on the application of controlled noise at the interface between the server that stores and processes the data, and the data consumers. Local differential privacy is a variant that allows data providers to apply the privatization mechanism themselves on their data individually. Therefore it provides protection also in contexts in which the server, or even the data collector, cannot be trusted. The introduction of noise, however, inevitably affects the utility of the data, particularly by distorting the correlations between individual data components. This distortion can prove detrimental to tasks such as causal discovery. In this paper, we consider various well-known locally differentially private mechanisms and compare the trade-off between the privacy they provide, and the accuracy of the causal structure produced by algorithms for causal learning when applied to data obfuscated by these mechanisms. Our analysis yields valuable insights for selecting appropriate local differentially private protocols for causal discovery tasks. We foresee that our findings will aid researchers and practitioners in conducting locally private causal discovery.
arxiv情報
著者 | Rūta Binkytė,Carlos Pinzón,Szilvia Lestyán,Kangsoo Jung,Héber H. Arcolezi,Catuscia Palamidessi |
発行日 | 2024-05-03 12:40:49+00:00 |
arxivサイト | arxiv_id(pdf) |