要約
未学習可能なデータ(ULD)は、機械学習モデルが特定のデータから意味のあるパターンを学習することを防ぎ、データのプライバシーとセキュリティを保護するための革新的な防衛技術として浮上しています。
トレーニングデータに摂動を導入することにより、ULDはモデルのパフォーマンスを分解し、不正なモデルが有用な表現を抽出することを困難にします。
ULDの重要性が高まっているにもかかわらず、既存の調査は主に、敵対的な攻撃やマシンの学習を希望するような関連分野に焦点を当てており、独立した研究分野としてULDにほとんど注意を払っていません。
この調査では、ULDの包括的なレビューを提供し、非達成できないデータ生成方法、パブリックベンチマーク、評価メトリック、理論的基礎、実用的なアプリケーションを調べることにより、そのギャップを埋めます。
さまざまなULDアプローチを比較対照し、その強み、制限、およびトレードオフを分析して、成長不能、知覚性、効率性、堅牢性に関連しています。
さらに、モデルの劣化とULD生成の計算の複雑さとの摂動の知覚性のバランスをとるなど、重要な課題について説明します。
最後に、ULDの有効性と適用性を進めるための有望な将来の研究の方向性を強調し、機械学習におけるデータ保護の進化する状況における重要なツールになる可能性を強調しています。
要約(オリジナル)
Unlearnable data (ULD) has emerged as an innovative defense technique to prevent machine learning models from learning meaningful patterns from specific data, thus protecting data privacy and security. By introducing perturbations to the training data, ULD degrades model performance, making it difficult for unauthorized models to extract useful representations. Despite the growing significance of ULD, existing surveys predominantly focus on related fields, such as adversarial attacks and machine unlearning, with little attention given to ULD as an independent area of study. This survey fills that gap by offering a comprehensive review of ULD, examining unlearnable data generation methods, public benchmarks, evaluation metrics, theoretical foundations and practical applications. We compare and contrast different ULD approaches, analyzing their strengths, limitations, and trade-offs related to unlearnability, imperceptibility, efficiency and robustness. Moreover, we discuss key challenges, such as balancing perturbation imperceptibility with model degradation and the computational complexity of ULD generation. Finally, we highlight promising future research directions to advance the effectiveness and applicability of ULD, underscoring its potential to become a crucial tool in the evolving landscape of data protection in machine learning.
arxiv情報
著者 | Jiahao Li,Yiqiang Chen,Yunbing Xing,Yang Gu,Xiangyuan Lan |
発行日 | 2025-04-01 16:42:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google