Contrastive Learning-Based privacy metrics in Tabular Synthetic Datasets

要約

合成データは、ヘルスケアやファイナンスなどのセクターのプライバシー強化テクノロジー(PET)として注目を集めています。
実際のアプリケーションで合成データを使用する場合、保護保証を提供することが重要です。
文献では、表形式データに対して2つのファミリーのアプローチが提案されています。一方で、類似性に基づいた方法は、トレーニングと合成データの類似性のレベルを見つけることを目的としています。
実際、生成されたデータが一貫して列車データと同一である場合、生成されたデータが一貫してあまりにも同一である場合、プライバシー違反が発生する可能性があります。
一方、攻撃ベースの方法は、合成データセットに対する意図的な攻撃を引き起こします。
これらの攻撃の成功率は、合成データセットの安全性を明らかにしています。
この論文では、より代表的なスペースにデータを埋め込むことにより、合成データセットのプライバシー評価を改善する対照的な方法を紹介します。
これは、多数のデータ型と属性を取り巻く障害を克服します。
また、類似性測定および攻撃ベクトルとして直感的な距離メトリックを使用することもできます。
公開されているデータセットを使用した一連の実験では、対照的な学習ベースの埋め込みを使用する場合と使用せずに、類似性ベースの方法と攻撃ベースの方法のパフォーマンスを比較します。
私たちの結果は、GDPRが言及するプライバシーの条件を明示的にモデル化するより高度なメトリックと同様に、比較的効率的で実装しやすいプライバシーメトリックが等しくパフォーマンスできることを示しています。

要約(オリジナル)

Synthetic data has garnered attention as a Privacy Enhancing Technology (PET) in sectors such as healthcare and finance. When using synthetic data in practical applications, it is important to provide protection guarantees. In the literature, two family of approaches are proposed for tabular data: on the one hand, Similarity-based methods aim at finding the level of similarity between training and synthetic data. Indeed, a privacy breach can occur if the generated data is consistently too similar or even identical to the train data. On the other hand, Attack-based methods conduce deliberate attacks on synthetic datasets. The success rates of these attacks reveal how secure the synthetic datasets are. In this paper, we introduce a contrastive method that improves privacy assessment of synthetic datasets by embedding the data in a more representative space. This overcomes obstacles surrounding the multitude of data types and attributes. It also makes the use of intuitive distance metrics possible for similarity measurements and as an attack vector. In a series of experiments with publicly available datasets, we compare the performances of similarity-based and attack-based methods, both with and without use of the contrastive learning-based embeddings. Our results show that relatively efficient, easy to implement privacy metrics can perform equally well as more advanced metrics explicitly modeling conditions for privacy referred to by the GDPR.

arxiv情報

著者 Milton Nicolás Plasencia Palacios,Sebastiano Saccani,Gabriele Sgroi,Alexander Boudewijn,Luca Bortolussi
発行日 2025-02-19 15:52:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク