Threats, Attacks, and Defenses in Machine Unlearning: A Survey

要約

Machine Unlearning (MU) は、トレーニング済みの機械学習モデルから特定のデータの影響を除去することで安全な AI を実現できる可能性があるため、最近大きな注目を集めています。
知識の削除として知られるこのプロセスは、品質、機密性、著作権制限、陳腐化などのトレーニング データの AI ガバナンスの問題に対処します。
この機能は、忘れられる権利などのプライバシー規制への準拠を確保するためにも重要です。
さらに、効果的な知識の削除により、有害な結果のリスクが軽減され、偏見、誤った情報、不正なデータ悪用から保護され、それによって AI システムの安全かつ責任ある使用が強化されます。
効率的な非学習アプローチを設計する取り組みが行われており、MU サービスはサービスとしての既存の機械学習との統合が検討されており、ユーザーがトレーニング コーパスから特定のデータを削除するリクエストを送信できるようになります。
しかし、最近の研究では、情報漏洩や悪意のあるアンラーニング リクエストなど、セキュリティとプライバシーに関する重大な懸念につながる可能性のある機械アンラーニング システムの脆弱性が浮き彫りになっています。
さらに、広範な調査により、アンラーニング手法と蔓延する攻撃が MU システム内でさまざまな役割を果たすことが示されています。
たとえば、アンラーニングはバックドア攻撃からモデルを回復するメカニズムとして機能する一方、バックドア攻撃自体はアンラーニングの有効性の評価指標として機能します。
これは、システムの機能と安全性を維持する上で、これらのメカニズム間の複雑な関係と複雑な相互作用を強調しています。
この調査は、機械の非学習における脅威、攻撃、防御に関する膨大な数の研究と、それらの分類、手法、およびソリューションを分類する包括的なレビューの欠如との間のギャップを埋めることを目的としており、これにより、将来の研究の方向性と実践に貴重な洞察を提供します。
実装。

要約(オリジナル)

Machine Unlearning (MU) has gained considerable attention recently for its potential to achieve Safe AI by removing the influence of specific data from trained machine learning models. This process, known as knowledge removal, addresses AI governance concerns of training data such as quality, sensitivity, copyright restrictions, and obsolescence. This capability is also crucial for ensuring compliance with privacy regulations such as the Right To Be Forgotten. Furthermore, effective knowledge removal mitigates the risk of harmful outcomes, safeguarding against biases, misinformation, and unauthorized data exploitation, thereby enhancing the safe and responsible use of AI systems. Efforts have been made to design efficient unlearning approaches, with MU services being examined for integration with existing machine learning as a service, allowing users to submit requests to remove specific data from the training corpus. However, recent research highlights vulnerabilities in machine unlearning systems, such as information leakage and malicious unlearning requests, that can lead to significant security and privacy concerns. Moreover, extensive research indicates that unlearning methods and prevalent attacks fulfill diverse roles within MU systems. For instance, unlearning can act as a mechanism to recover models from backdoor attacks, while backdoor attacks themselves can serve as an evaluation metric for unlearning effectiveness. This underscores the intricate relationship and complex interplay among these mechanisms in maintaining system functionality and safety. This survey aims to fill the gap between the extensive number of studies on threats, attacks, and defenses in machine unlearning and the absence of a comprehensive review that categorizes their taxonomy, methods, and solutions, thus offering valuable insights for future research directions and practical implementations.

arxiv情報

著者 Ziyao Liu,Huanyi Ye,Chen Chen,Kwok-Yan Lam
発行日 2024-08-05 08:32:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR パーマリンク