要約
過去数十年にわたり、研究者は主にモデルの一般化能力の改善に焦点を当ててきました。
ただし、モデルが意図しないデータ(たとえば、有害または不正データ)に一般化する能力は、予期せぬ敵によって悪用され、モデル倫理に違反する可能性があります。
これらの課題に対処するために、ディープラーニングモデルの一般化能力を再構築することを目的としたタスクである非譲渡可能な学習(NTL)が提案されました。
この分野では多数の方法が提案されていますが、既存の進捗状況の包括的なレビューと現在の制限の徹底的な分析は残っています。
このホワイトペーパーでは、NTLに関する最初の包括的な調査を提示し、統一されたフレームワーク内でNTLのパフォーマンスと堅牢性を評価する最初のベンチマークであるNTLBenchを導入することにより、このギャップを埋めます。
具体的には、最初にNTLのタスク設定、一般的なフレームワーク、および基準を紹介し、その後NTLアプローチの概要を紹介します。
さらに、NTLによって確立された譲渡不可能なメカニズムを破壊する可能性のあるさまざまな攻撃に対する堅牢性の頻繁に見過ごされている問題を強調します。
NTLBenchを介して実施された実験では、既存のNTLメソッドの制限が堅牢性を確認します。
最後に、NTLの実用的なアプリケーションと、その将来の方向性と関連する課題について説明します。
要約(オリジナル)
Over the past decades, researchers have primarily focused on improving the generalization abilities of models, with limited attention given to regulating such generalization. However, the ability of models to generalize to unintended data (e.g., harmful or unauthorized data) can be exploited by malicious adversaries in unforeseen ways, potentially resulting in violations of model ethics. Non-transferable learning (NTL), a task aimed at reshaping the generalization abilities of deep learning models, was proposed to address these challenges. While numerous methods have been proposed in this field, a comprehensive review of existing progress and a thorough analysis of current limitations remain lacking. In this paper, we bridge this gap by presenting the first comprehensive survey on NTL and introducing NTLBench, the first benchmark to evaluate NTL performance and robustness within a unified framework. Specifically, we first introduce the task settings, general framework, and criteria of NTL, followed by a summary of NTL approaches. Furthermore, we emphasize the often-overlooked issue of robustness against various attacks that can destroy the non-transferable mechanism established by NTL. Experiments conducted via NTLBench verify the limitations of existing NTL methods in robustness. Finally, we discuss the practical applications of NTL, along with its future directions and associated challenges.
arxiv情報
著者 | Ziming Hong,Yongli Xiang,Tongliang Liu |
発行日 | 2025-03-07 13:45:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google