要約
予測モデルのトレーニングと展開を目的として、組織は大量の詳細な顧客データを収集するため、侵害が発生した場合に個人情報が漏洩する危険があります。
これを軽減するために、政策立案者はデータ最小化 (DM) 原則の順守をますます要求し、データ収集をタスクに関連し必要なデータのみに制限しています。
規制の圧力にもかかわらず、DM に従う機械学習モデルの導入の問題は、これまでのところほとんど注目されていません。
この取り組みでは、この課題に包括的な方法で取り組みます。
私たちは、データの一般化に基づいた新しい垂直 DM (vDM) ワークフローを提案します。これは、設計上、モデルのトレーニングおよびデプロイ中にフル解像度のクライアント データが収集されないことを保証し、侵害の場合の攻撃対象領域を減らすことでクライアントのプライバシーに利益をもたらします。
私たちは、データの有用性を最大化し、経験的なプライバシーリスクを最小化する一般化を見つけるという対応する問題を形式化し、研究します。これは、ポリシーに沿った敵対的シナリオの多様なセットを導入することによって定量化されます。
最後に、さまざまなベースライン vDM アルゴリズムと、いくつかの設定にわたってすべてのベースラインを上回る特に効果的な vDM アルゴリズムであるプライバシー認識ツリー (PAT) を提案します。
私たちはコードを一般公開ライブラリとしてリリースし、機械学習用の DM の標準化を促進する予定です。
全体として、私たちは、私たちの取り組みが、現実世界のアプリケーションにおける DM 原則のさらなる探求と導入のための基礎を築くのに役立つと信じています。
要約(オリジナル)
Aiming to train and deploy predictive models, organizations collect large amounts of detailed client data, risking the exposure of private information in the event of a breach. To mitigate this, policymakers increasingly demand compliance with the data minimization (DM) principle, restricting data collection to only that data which is relevant and necessary for the task. Despite regulatory pressure, the problem of deploying machine learning models that obey DM has so far received little attention. In this work, we address this challenge in a comprehensive manner. We propose a novel vertical DM (vDM) workflow based on data generalization, which by design ensures that no full-resolution client data is collected during training and deployment of models, benefiting client privacy by reducing the attack surface in case of a breach. We formalize and study the corresponding problem of finding generalizations that both maximize data utility and minimize empirical privacy risk, which we quantify by introducing a diverse set of policy-aligned adversarial scenarios. Finally, we propose a range of baseline vDM algorithms, as well as Privacy-aware Tree (PAT), an especially effective vDM algorithm that outperforms all baselines across several settings. We plan to release our code as a publicly available library, helping advance the standardization of DM for machine learning. Overall, we believe our work can help lay the foundation for further exploration and adoption of DM principles in real-world applications.
arxiv情報
著者 | Robin Staab,Nikola Jovanović,Mislav Balunović,Martin Vechev |
発行日 | 2023-11-22 14:42:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google