要約
私たちは、トレーニング セットにいくつかのデータ ポイントを含めた後の機械学習アルゴリズムの出力分布の変化を定量化するための新しい分析フレームワークを導入します。これは、Leave-one-out 識別可能性 (LOOD) として定義される概念です。
この問題は、機械学習におけるデータの**記憶**と**情報漏洩**、およびモデル予測に対するトレーニング データポイントの**影響**を測定するための鍵となります。
私たちの手法が、トレーニング データに関連する記憶とプライバシーのリスクに関する既存の経験的尺度をどのように拡張し、改良するかを説明します。
ガウス プロセスを使用して機械学習アルゴリズムのランダム性をモデル化し、メンバーシップ推論攻撃を使用した情報漏洩の広範な実証分析によって LOOD を検証します。
私たちの理論的枠組みにより、情報漏洩の原因と漏洩が多い場所を調査することができます。
たとえば、データの記憶に対する活性化関数の影響を分析します。
さらに、私たちの方法では、リーブワンアウト設定でトレーニング データに関する最も重要な情報を開示するクエリを最適化できます。
最適なクエリを使用してトレーニング データを正確に **再構築**する方法を説明します。
要約(オリジナル)
We introduce a new analytical framework to quantify the changes in a machine learning algorithm’s output distribution following the inclusion of a few data points in its training set, a notion we define as leave-one-out distinguishability (LOOD). This problem is key to measuring data **memorization** and **information leakage** in machine learning, and the **influence** of training data points on model predictions. We illustrate how our method broadens and refines existing empirical measures of memorization and privacy risks associated with training data. We use Gaussian processes to model the randomness of machine learning algorithms, and validate LOOD with extensive empirical analysis of information leakage using membership inference attacks. Our theoretical framework enables us to investigate the causes of information leakage and where the leakage is high. For example, we analyze the influence of activation functions, on data memorization. Additionally, our method allows us to optimize queries that disclose the most significant information about the training data in the leave-one-out setting. We illustrate how optimal queries can be used for accurate **reconstruction** of training data.
arxiv情報
著者 | Jiayuan Ye,Anastasia Borovykh,Soufiane Hayou,Reza Shokri |
発行日 | 2023-09-29 15:08:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google