Remembering Everything Makes You Vulnerable: A Limelight on Machine Unlearning for Personalized Healthcare Sector

要約

ヘルスケアにおけるデータ駆動型技術の普及が進むにつれ、データのプライバシーとセキュリティに関する懸念はますます高まっている。本論文の目的は、特に心電図モニタリングの文脈における、患者のプライバシーを侵害する敵対的攻撃に対する、パーソナライズド・ヘルスケア・モデルの脆弱性に対処することである。本論文では、「機械学習解除(Machine Unlearning)」と呼ばれるアプローチを提案し、機械学習モデルにおける暴露されたデータポイントの影響を緩和することで、個人のプライバシーを守りながら、敵対的攻撃に対するモデルの頑健性を高める。具体的には、臨床心電図記録のデータセットを用いて、パーソナライズされた心電図モニタリングの文脈における機械学習解除の有効性を調査する。我々の手法では、ECGデータに対してディープニューラル分類器をトレーニングし、個々の患者に対してモデルを微調整する。われわれは、パーソナライズド・モデルの追加データ・ポイントを悪用できる高速勾配符号法(FGSM)のような敵対的攻撃に対して、微調整されたモデルが影響を受けやすいことを実証する。この脆弱性に対処するため、我々は機械学習解除アルゴリズムを提案し、微調整されたモデルから敏感なデータ点を選択的に除去することで、敵対的な操作に対するモデルの耐性を効果的に強化する。実験結果は、事前に訓練されたモデルの精度を維持しながら、敵対的な攻撃の影響を緩和する上で、我々のアプローチが有効であることを示している。

要約(オリジナル)

As the prevalence of data-driven technologies in healthcare continues to rise, concerns regarding data privacy and security become increasingly paramount. This thesis aims to address the vulnerability of personalized healthcare models, particularly in the context of ECG monitoring, to adversarial attacks that compromise patient privacy. We propose an approach termed ‘Machine Unlearning’ to mitigate the impact of exposed data points on machine learning models, thereby enhancing model robustness against adversarial attacks while preserving individual privacy. Specifically, we investigate the efficacy of Machine Unlearning in the context of personalized ECG monitoring, utilizing a dataset of clinical ECG recordings. Our methodology involves training a deep neural classifier on ECG data and fine-tuning the model for individual patients. We demonstrate the susceptibility of fine-tuned models to adversarial attacks, such as the Fast Gradient Sign Method (FGSM), which can exploit additional data points in personalized models. To address this vulnerability, we propose a Machine Unlearning algorithm that selectively removes sensitive data points from fine-tuned models, effectively enhancing model resilience against adversarial manipulation. Experimental results demonstrate the effectiveness of our approach in mitigating the impact of adversarial attacks while maintaining the pre-trained model accuracy.

arxiv情報

著者 Ahan Chatterjee,Sai Anirudh Aryasomayajula,Rajat Chaudhari,Subhajit Paul,Vishwa Mohan Singh
発行日 2024-07-05 15:38:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク