要約
クラス増分学習 (CIL) では、モデルが古いクラスを忘れることなく新しいクラスの知識を継続的に取得する必要があります。
事前トレーニング済みモデル (PTM) は CIL で優れたパフォーマンスを示していますが、モデルが新しい概念を学習する際に壊滅的な忘却が依然として発生します。
既存の研究では軽量コンポーネントを利用して PTM を調整しようとしていますが、忘却現象は依然として {\em パラメータと取得} レベルから発生しています。
具体的には、モデルの反復更新によりパラメーターのドリフトが発生し、無関係なモジュールを誤って取得すると推論中に不一致が発生します。
この目的を達成するために、モデルが以前の知識を忘れないようにするための MODel Surgery (MOS) を提案します。
タスク固有のアダプターをトレーニングすることで、下流のタスクに合わせて PTM を継続的に調整します。
パラメーターレベルの忘却を軽減するために、タスク固有のアダプターを学習するためのアダプターマージアプローチを紹介します。これは、タスク固有の情報を確保しながら、異なるコンポーネント間のギャップを埋めることを目的としています。
さらに、検索レベルの忘却に対処するために、推論中にトレーニング不要の自己洗練されたアダプター検索メカニズムを導入します。これは、アダプターの検索を改善するためにモデルの固有の機能を活用します。
これらのステップでモデルを修正することにより、MOS は学習プロセスにおける壊滅的な忘却に強力に抵抗できます。
7 つのベンチマーク データセットに対する広範な実験により、MOS の最先端のパフォーマンスが検証されています。
コードはhttps://github.com/sun-hailong/AAAI25-MOSから入手できます。
要約(オリジナル)
Class-Incremental Learning (CIL) requires models to continually acquire knowledge of new classes without forgetting old ones. Despite Pre-trained Models (PTMs) have shown excellent performance in CIL, catastrophic forgetting still occurs as the model learns new concepts. Existing work seeks to utilize lightweight components to adjust the PTM, while the forgetting phenomenon still comes from {\em parameter and retrieval} levels. Specifically, iterative updates of the model result in parameter drift, while mistakenly retrieving irrelevant modules leads to the mismatch during inference. To this end, we propose MOdel Surgery (MOS) to rescue the model from forgetting previous knowledge. By training task-specific adapters, we continually adjust the PTM to downstream tasks. To mitigate parameter-level forgetting, we present an adapter merging approach to learn task-specific adapters, which aims to bridge the gap between different components while reserve task-specific information. Besides, to address retrieval-level forgetting, we introduce a training-free self-refined adapter retrieval mechanism during inference, which leverages the model’s inherent ability for better adapter retrieval. By jointly rectifying the model with those steps, MOS can robustly resist catastrophic forgetting in the learning process. Extensive experiments on seven benchmark datasets validate MOS’s state-of-the-art performance. Code is available at: https://github.com/sun-hailong/AAAI25-MOS
arxiv情報
著者 | Hai-Long Sun,Da-Wei Zhou,Hanbin Zhao,Le Gan,De-Chuan Zhan,Han-Jia Ye |
発行日 | 2024-12-12 16:57:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google