CL-LoRA: Continual Low-Rank Adaptation for Rehearsal-Free Class-Incremental Learning

要約

クラスインクリメンテルラーニング(CIL)は、以前に学んだクラスの知識を保持しながら、新しいクラスを順次学習することを目指しています。
最近、パラメーター効率の高い微調整(PEFT)と組み合わせた事前訓練モデル(PTM)は、以前のタスクからの例を必要とせずに、リハーサルのないCILで顕著なパフォーマンスを示しています。
ただし、軽量の学習可能なモジュールをCIL用のPTMに組み込んだ既存のアダプターベースのメソッドは、新しいタスクごとに新しいアダプターを作成し、パラメーター冗長性とタスク全体で共有知識を活用できないことにつながります。
この作業では、継続的な低ランク適応(CL-LORA)を提案します。これは、クロスタスクの知識と\ textBF {タスク固有のアダプター}を学習するために\ textBf {task-sharedアダプター}を組み合わせた新しいデュアルアダプターアーキテクチャを導入し、各新しいタスクのユニークな機能をキャプチャします。
具体的には、共有アダプターはランダムな直交行列を利用し、勾配の再割り当てで知識の蒸留を活用して、本質的な共有知識を維持します。
さらに、モデルの可塑性を維持しながら、タスク間干渉を緩和するタスク固有のアダプターに学習可能なブロックごとの重みを導入します。
CL-LORAは、トレーニングと推論の計算を減らして複数のベンチマークで有望なパフォーマンスを達成し、事前に訓練されたモデルを使用した継続的な学習のためのより効率的でスケーラブルなパラダイムを確立することを実証します。

要約(オリジナル)

Class-Incremental Learning (CIL) aims to learn new classes sequentially while retaining the knowledge of previously learned classes. Recently, pre-trained models (PTMs) combined with parameter-efficient fine-tuning (PEFT) have shown remarkable performance in rehearsal-free CIL without requiring exemplars from previous tasks. However, existing adapter-based methods, which incorporate lightweight learnable modules into PTMs for CIL, create new adapters for each new task, leading to both parameter redundancy and failure to leverage shared knowledge across tasks. In this work, we propose ContinuaL Low-Rank Adaptation (CL-LoRA), which introduces a novel dual-adapter architecture combining \textbf{task-shared adapters} to learn cross-task knowledge and \textbf{task-specific adapters} to capture unique features of each new task. Specifically, the shared adapters utilize random orthogonal matrices and leverage knowledge distillation with gradient reassignment to preserve essential shared knowledge. In addition, we introduce learnable block-wise weights for task-specific adapters, which mitigate inter-task interference while maintaining the model’s plasticity. We demonstrate CL-LoRA consistently achieves promising performance under multiple benchmarks with reduced training and inference computation, establishing a more efficient and scalable paradigm for continual learning with pre-trained models.

arxiv情報

著者 Jiangpeng He,Zhihao Duan,Fengqing Zhu
発行日 2025-05-30 17:19:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク