要約
継続的学習とは、一連のデータから継続的に学習する機能を指します。
現在の研究は、壊滅的な忘却を軽減することに主に焦点を当てており、その成功のほとんどは、新しく入ってくるタスクのパフォーマンスを制限するという代償を払っています.
このようなトレードオフは、安定性と可塑性のジレンマと呼ばれ、継続的な学習にとってより一般的で困難な問題です。
ただし、これらの 2 つの概念の間に固有の矛盾があるため、両方を同時に解決するための満足のいく解決策を考案することは不可能に見えます。
したがって、「それらを 2 つの問題に分割して、独立して克服することは可能ですか?」と尋ねます。
この目的のために、PromptFusionと呼ばれるプロンプトチューニングベースの方法を提案して、安定性と可塑性の分離を可能にします。
具体的には、PromptFusion は、壊滅的な忘却に対処する慎重に設計された Stabilizer モジュールと、新しい知識を同時に学習するための Booster モジュールで構成されています。
トレーニング中、PromptFusion は最初に入力画像を 2 つのモジュールに別々に渡します。
次に、結果のロジットは、学習可能な重みパラメーターとさらに融合されます。
最後に、古いクラスと新しいクラスのバランスをとるために、派生したロジットに重みマスクが適用されます。
広範な実験により、クラス増分設定とドメイン増分設定の両方で、一般的な継続学習データセットでこの方法が有望な結果を達成することが示されています。
特に、クラス単位の増分学習にとって最も困難なデータセットの 1 つである Split-Imagenet-R では、私たちの方法は最先端のプロンプトベースの方法である L2P および DualPrompt を 10% 以上上回っています。
要約(オリジナル)
Continual learning refers to the capability of continuously learning from a stream of data. Current research mainly focuses on relieving catastrophic forgetting, and most of their success is at the cost of limiting the performance of newly incoming tasks. Such a trade-off is referred to as the stabilityplasticity dilemma and is a more general and challenging problem for continual learning. However, the inherent conflict between these two concepts makes it seemingly impossible to devise a satisfactory solution to both of them simultaneously. Therefore, we ask, ‘is it possible to divide them into two problems to conquer independently?’ To this end, we propose a prompt-tuning-based method termed PromptFusion to enable the decoupling of stability and plasticity. Specifically, PromptFusion consists of a carefully designed Stabilizer module that deals with catastrophic forgetting and a Booster module to learn new knowledge concurrently. During training, PromptFusion first passes an input image to the two modules separately. Then the resulting logits are further fused with a learnable weight parameter. Finally, a weight mask is applied to the derived logits to balance between old and new classes. Extensive experiments show that our method achieves promising results on popular continual learning datasets for both class-incremental and domain incremental settings. Especially on Split-Imagenet-R, one of the most challenging datasets for class-incremental learning, our method exceeds state-of-the-art prompt-based methods L2P and DualPrompt by more than 10%.
arxiv情報
著者 | Haoran Chen,Zuxuan Wu,Xintong Han,Menglin Jia,Yu-Gang Jiang |
発行日 | 2023-03-13 15:58:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google