要約
メンバーシップ推論攻撃 (MIA) は現在、主要なプライバシー攻撃戦略の 1 つと考えられており、その防御メカニズムも広範囲に調査されています。
ただし、パフォーマンスと導入コストの点で、既存の防御アプローチと理想的なモデルの間には依然としてギャップがあります。
特に、モデルのプライバシーの脆弱性が、モデルのデータ記憶能力と汎化能力の間のギャップと密接に相関していることが観察されました。
これに対処するために、私たちは、センターベースのリラックス学習 (CRL) と呼ばれる、アーキテクチャに依存しない新しいトレーニング パラダイムを提案します。これは、あらゆる分類モデルに適応し、モデルの一般化性の損失を最小限またはまったく犠牲にすることでプライバシーの保護を提供します。
CRL を使用すると、メンバー データと非メンバー データの間でモデルの一貫性をより適切に維持できることを強調します。
標準分類データセットに対する広範な実験を通じて、このアプローチが追加のモデル容量やデータコストを必要とせずに同等のパフォーマンスを発揮することを経験的に示しています。
要約(オリジナル)
Membership inference attacks (MIAs) are currently considered one of the main privacy attack strategies, and their defense mechanisms have also been extensively explored. However, there is still a gap between the existing defense approaches and ideal models in performance and deployment costs. In particular, we observed that the privacy vulnerability of the model is closely correlated with the gap between the model’s data-memorizing ability and generalization ability. To address this, we propose a new architecture-agnostic training paradigm called center-based relaxed learning (CRL), which is adaptive to any classification model and provides privacy preservation by sacrificing a minimal or no loss of model generalizability. We emphasize that CRL can better maintain the model’s consistency between member and non-member data. Through extensive experiments on standard classification datasets, we empirically show that this approach exhibits comparable performance without requiring additional model capacity or data costs.
arxiv情報
著者 | Xingli Fang,Jung-Eun Kim |
発行日 | 2024-05-29 17:54:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google