要約
この論文では、敵対者への個人データの開示を防ぐことを目的としたプライバシー保護データ公開設定において、調整可能なプライバシー対策として Arimoto の $\alpha$-Mutual Information を採用しています。
プライバシー メトリックを微調整することで、私たちのアプローチがさまざまなパフォーマンスの側面で攻撃者を効果的に阻止する優れたモデルを生み出すことを実証します。
私たちは、元のデータを操作してプライバシー保護を提供する、一般的な歪みベースのメカニズムを定式化します。
歪みメトリクスは、特定の実験のデータ構造に従って決定されます。
私たちは、反対の目標を持って訓練されたリリーサーと敵対者で構成される一般的な敵対的深層学習フレームワークを採用することで、定式化で表現された問題に立ち向かいます。
本研究では、$\alpha$-Mutual Informationの機能を検証するために、画像と時系列データを用いた実証実験を行っています。
カスタマイズされたモデルのプライバシーとユーティリティのトレードオフを評価し、ベースラインの尺度としてそれらを相互情報と比較します。
最後に、攻撃者が個人データに関する副次情報にアクセスした場合の結果を分析し、プライバシー対策を適用すると、副次情報に対する回復力の点で最先端のモデルよりも洗練されたモデルが得られることを確認します。
要約(オリジナル)
This paper adopts Arimoto’s $\alpha$-Mutual Information as a tunable privacy measure, in a privacy-preserving data release setting that aims to prevent disclosing private data to adversaries. By fine-tuning the privacy metric, we demonstrate that our approach yields superior models that effectively thwart attackers across various performance dimensions. We formulate a general distortion-based mechanism that manipulates the original data to offer privacy protection. The distortion metrics are determined according to the data structure of a specific experiment. We confront the problem expressed in the formulation by employing a general adversarial deep learning framework that consists of a releaser and an adversary, trained with opposite goals. This study conducts empirical experiments on images and time-series data to verify the functionality of $\alpha$-Mutual Information. We evaluate the privacy-utility trade-off of customized models and compare them to mutual information as the baseline measure. Finally, we analyze the consequence of an attacker’s access to side information about private data and witness that adapting the privacy measure results in a more refined model than the state-of-the-art in terms of resiliency against side information.
arxiv情報
著者 | MirHamed Jafarzadeh Asl,Mohammadhadi Shateri,Fabrice Labeau |
発行日 | 2023-10-27 16:26:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google