Threats, Attacks, and Defenses in Machine Unlearning: A Survey

要約

最近、機械学習 (MU) は、トレーニングされた機械学習 (ML) モデルから特定のデータの影響を取り除くことで AI の安全性を向上させる可能性があるため、大きな注目を集めています。
知識の削除として知られるこのプロセスは、機密性、著作権制限、陳腐化、低品質などのデータに関する懸念に対処します。
この機能は、忘れられる権利 (RTBF) などのプライバシー規制への準拠を確保するためにも重要です。
したがって、戦略的な知識の削除は、有害な結果のリスクを軽減し、偏見、誤った情報、不正なデータ悪用から保護し、それによって AI システムの倫理的な使用と信頼性を強化します。
効率的なアンラーニング アプローチを設計する取り組みが行われており、MU サービスは既存のサービスとしての機械学習 (MLaaS) との統合が検討されており、ユーザーがデータ消去リクエストを送信できるようになります。
しかし、最近の研究では、情報漏洩や悪意のあるアンラーニング リクエストなど、セキュリティとプライバシーに関する重大な懸念につながる可能性のある機械アンラーニング システムの脆弱性が浮き彫りになっています。
さらに、広範な調査により、アンラーニング手法と蔓延する攻撃が MU システム内でさまざまな役割を果たすことが示されています。
たとえば、アンラーニングはバックドア攻撃からモデルを回復するメカニズムとして機能する一方、バックドア攻撃自体はアンラーニングの有効性の評価指標として機能します。
これは、システムの機能と安全性を維持する上で、これらの要素間の複雑な関係と複雑な相互作用を強調しています。
したがって、この調査は、機械の非学習における脅威、攻撃、防御に関する膨大な数の研究と、それらの分類、手法、およびソリューションを分類する包括的なレビューの欠如との間のギャップを埋めることを目的としており、これにより将来の研究の方向性に貴重な洞察を提供します。
そして実践的な実装。

要約(オリジナル)

Recently, Machine Unlearning (MU) has gained considerable attention for its potential to improve AI safety by removing the influence of specific data from trained Machine Learning (ML) models. This process, known as knowledge removal, addresses concerns about data such as sensitivity, copyright restrictions, obsolescence, or low quality. This capability is also crucial for ensuring compliance with privacy regulations such as the Right To Be Forgotten (RTBF). Therefore, strategic knowledge removal mitigates the risk of harmful outcomes, safeguarding against biases, misinformation, and unauthorized data exploitation, thereby enhancing the ethical use and reliability of AI systems. Efforts have been made to design efficient unlearning approaches, with MU services being examined for integration with existing machine learning as a service (MLaaS), allowing users to submit requests to erase data. However, recent research highlights vulnerabilities in machine unlearning systems, such as information leakage and malicious unlearning requests, that can lead to significant security and privacy concerns. Moreover, extensive research indicates that unlearning methods and prevalent attacks fulfill diverse roles within MU systems. For instance, unlearning can act as a mechanism to recover models from backdoor attacks, while backdoor attacks themselves can serve as an evaluation metric for unlearning effectiveness. This underscores the intricate relationship and complex interplay between these elements in maintaining system functionality and safety. Therefore, this survey seeks to bridge the gap between the extensive number of studies on threats, attacks, and defenses in machine unlearning and the absence of a comprehensive review that categorizes their taxonomy, methods, and solutions, thus offering valuable insights for future research directions and practical implementations.

arxiv情報

著者 Ziyao Liu,Huanyi Ye,Chen Chen,Kwok-Yan Lam
発行日 2024-03-20 15:40:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR パーマリンク