要約
機械学習(ML)モデルには個人情報が含まれており、忘れられる権利の実装は、多くのデータアプリケーションにおいて困難なプライバシー問題である。機械学習は、学習済みモデルから機密データを取り除くための代替手段として登場しましたが、MLモデルを完全に再学習することは、しばしば実行不可能な場合があります。本調査では、厳密な方法と近似的な方法の両方、可能性の高い攻撃、検証アプローチを含む、機械学習解除技術の簡潔な評価を提供します。本調査では、各手法の利点と限界を比較し、Deltagradの厳密機械学習法を用いてその性能を評価する。また、公平性の問題を軽減するために、非IID削除のための堅牢なモデルが急務であるなどの課題も取り上げています。全体として、この調査は、機械学習技術とアプリケーションの完全な概要を提供し、この発展途上の分野における将来の研究の方向性に言及しています。本調査は、MLシステムにおいてプライバシーと公平性を提供しようとする研究者や実務家にとって、貴重なリソースとなることを目指します。
要約(オリジナル)
Machine Learning (ML) models contain private information, and implementing the right to be forgotten is a challenging privacy issue in many data applications. Machine unlearning has emerged as an alternative to remove sensitive data from a trained model, but completely retraining ML models is often not feasible. This survey provides a concise appraisal of Machine Unlearning techniques, encompassing both exact and approximate methods, probable attacks, and verification approaches. The survey compares the merits and limitations each method and evaluates their performance using the Deltagrad exact machine unlearning method. The survey also highlights challenges like the pressing need for a robust model for non-IID deletion to mitigate fairness issues. Overall, the survey provides a thorough synopsis of machine unlearning techniques and applications, noting future research directions in this evolving field. The survey aims to be a valuable resource for researchers and practitioners seeking to provide privacy and equity in ML systems.
arxiv情報
著者 | Youyang Qu,Xin Yuan,Ming Ding,Wei Ni,Thierry Rakotoarivelo,David Smith |
発行日 | 2023-05-12 14:28:02+00:00 |
arxivサイト | arxiv_id(pdf) |