Self-paced Weight Consolidation for Continual Learning

要約

新しいタスクのパラメータを以前のタスクのパラメータに近づける継続学習アルゴリズムは、逐次タスク学習設定における致命的な忘れを防ぐために一般的です。
ただし、1) 新しい継続学習者のパフォーマンスは、以前に学習したタスクの貢献を区別することなく低下します。
2) 既存のアルゴリズムのほとんどは、新しいタスクを学習するときに以前のすべてのタスクを正規化する必要があるため、タスクの数に応じて計算コストが大幅に増加します。
上記の課題に対処するために、以前のタスクの識別的な寄与を評価することで堅牢な継続学習を達成するための、自己ペースの重み統合 (spWC) フレームワークを提案します。
具体的には、主要業績評価指標 (つまり、精度) に基づいて難易度を測定することで、過去のタスクの優先順位を反映する自己ペースの正則化を開発します。
新しいタスクに遭遇すると、以前のすべてのタスクは優先順位に基づいて「難しい」から「簡単」に分類されます。
その後、新しい継続学習者のパラメータは、より困難な過去のタスクの間で知識を選択的に維持することによって学習され、より少ない計算コストで壊滅的な忘却を十分に克服できる可能性があります。
代替の凸探索を採用して、両凸定式化におけるモデルパラメータと優先度の重みを繰り返し更新します。
提案された spWC フレームワークはプラグアンドプレイであり、さまざまな方向 (分類やセグメンテーションなど) のほとんどの継続学習アルゴリズム (EWC、MAS、RCIL など) に適用できます。
いくつかの公開ベンチマーク データセットでの実験結果は、私たちが提案するフレームワークが他の一般的な継続学習アルゴリズムと比較した場合にパフォーマンスを効果的に向上できることを示しています。

要約(オリジナル)

Continual learning algorithms which keep the parameters of new tasks close to that of previous tasks, are popular in preventing catastrophic forgetting in sequential task learning settings. However, 1) the performance for the new continual learner will be degraded without distinguishing the contributions of previously learned tasks; 2) the computational cost will be greatly increased with the number of tasks, since most existing algorithms need to regularize all previous tasks when learning new tasks. To address the above challenges, we propose a self-paced Weight Consolidation (spWC) framework to attain robust continual learning via evaluating the discriminative contributions of previous tasks. To be specific, we develop a self-paced regularization to reflect the priorities of past tasks via measuring difficulty based on key performance indicator (i.e., accuracy). When encountering a new task, all previous tasks are sorted from ‘difficult’ to ‘easy’ based on the priorities. Then the parameters of the new continual learner will be learned via selectively maintaining the knowledge amongst more difficult past tasks, which could well overcome catastrophic forgetting with less computational cost. We adopt an alternative convex search to iteratively update the model parameters and priority weights in the bi-convex formulation. The proposed spWC framework is plug-and-play, which is applicable to most continual learning algorithms (e.g., EWC, MAS and RCIL) in different directions (e.g., classification and segmentation). Experimental results on several public benchmark datasets demonstrate that our proposed framework can effectively improve performance when compared with other popular continual learning algorithms.

arxiv情報

著者 Wei Cong,Yang Cong,Gan Sun,Yuyang Liu,Jiahua Dong
発行日 2023-07-20 13:07:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク