Privacy-Preserving Model and Preprocessing Verification for Machine Learning

要約

このペーパーでは、機密データでトレーニングされたモデルに焦点を当てた、機械学習モデルのプライバシー保護検証のためのフレームワークを紹介します。
ローカル差分プライバシー (LDP) を LIME および SHAP のモデル説明と統合することで、私たちのフレームワークは個人のプライバシーを損なうことなく堅牢な検証を可能にします。
これは、適切な前処理ステップを適用してターゲット モデルが正しくトレーニングされたかどうかを検証するバイナリ分類と、特定の前処理エラーを特定するマルチクラス分類という 2 つの重要なタスクに取り組みます。
3 つの現実世界のデータセット (糖尿病、成人、学生記録) の評価では、ML ベースのアプローチがバイナリ タスクで特に効果的である一方、しきい値ベースの手法がマルチクラス タスクで同等に機能することが実証されています。
結果は、検証精度はデータセットやノイズ レベルによって異なりますが、このフレームワークは前処理エラーの効果的な検出、強力なプライバシー保証、および機密データの保護に対する実用的な適用性を提供することを示しています。

要約(オリジナル)

This paper presents a framework for privacy-preserving verification of machine learning models, focusing on models trained on sensitive data. Integrating Local Differential Privacy (LDP) with model explanations from LIME and SHAP, our framework enables robust verification without compromising individual privacy. It addresses two key tasks: binary classification, to verify if a target model was trained correctly by applying the appropriate preprocessing steps, and multi-class classification, to identify specific preprocessing errors. Evaluations on three real-world datasets-Diabetes, Adult, and Student Record-demonstrate that while the ML-based approach is particularly effective in binary tasks, the threshold-based method performs comparably in multi-class tasks. Results indicate that although verification accuracy varies across datasets and noise levels, the framework provides effective detection of preprocessing errors, strong privacy guarantees, and practical applicability for safeguarding sensitive data.

arxiv情報

著者 Wenbiao Li,Anisa Halimi,Xiaoqian Jiang,Jaideep Vaidya,Erman Ayday
発行日 2025-01-14 16:21:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク