New Insights for the Stability-Plasticity Dilemma in Online Continual Learning

要約

継続的学習の目的は、古いタスクから以前に学んだ知識を忘れることなく (つまり、安定性)、新しいタスクを継続的に学習することです (つまり、可塑性)。
データが厳密にストリーミング方式で提供されるオンライン継続学習のシナリオでは、オンライン継続学習の可塑性は、オフライン継続学習よりも脆弱です。これは、単一のデータ ポイントから取得できるトレーニング信号が限られているためです。
オンライン継続学習における安定性と可塑性のジレンマを克服するために、事前トレーニング済みネットワークのさまざまなレベルから抽出されたより豊富なコンテキスト エンコーディングを利用するマルチスケール機能適応ネットワーク (MuFAN) という名前のオンライン継続学習フレームワークを提案します。
さらに、新しい構造単位の蒸留損失を導入し、一般的に使用されるバッチ正規化層を新しく提案された安定性 – 可塑性正規化モジュールに置き換えて、高い可塑性と安定性を同時に維持する MuFAN をトレーニングします。
MuFAN は、SVHN、CIFAR100、miniImageNet、および CORe50 データセットで、他の最先端の継続的学習方法よりも優れています。
広範な実験とアブレーション研究により、提案された各コンポーネントの重要性とスケーラビリティが検証されます。1) 事前トレーニング済みエンコーダーからのマルチスケール機能マップ、2) 構造ごとの蒸留損失、および 3) MuFAN の安定性-可塑性正規化モジュール。
コードは https://github.com/whitesnowdrop/MuFAN で公開されています。

要約(オリジナル)

The aim of continual learning is to learn new tasks continuously (i.e., plasticity) without forgetting previously learned knowledge from old tasks (i.e., stability). In the scenario of online continual learning, wherein data comes strictly in a streaming manner, the plasticity of online continual learning is more vulnerable than offline continual learning because the training signal that can be obtained from a single data point is limited. To overcome the stability-plasticity dilemma in online continual learning, we propose an online continual learning framework named multi-scale feature adaptation network (MuFAN) that utilizes a richer context encoding extracted from different levels of a pre-trained network. Additionally, we introduce a novel structure-wise distillation loss and replace the commonly used batch normalization layer with a newly proposed stability-plasticity normalization module to train MuFAN that simultaneously maintains high plasticity and stability. MuFAN outperforms other state-of-the-art continual learning methods on the SVHN, CIFAR100, miniImageNet, and CORe50 datasets. Extensive experiments and ablation studies validate the significance and scalability of each proposed component: 1) multi-scale feature maps from a pre-trained encoder, 2) the structure-wise distillation loss, and 3) the stability-plasticity normalization module in MuFAN. Code is publicly available at https://github.com/whitesnowdrop/MuFAN.

arxiv情報

著者 Dahuin Jung,Dongjin Lee,Sunwon Hong,Hyemi Jang,Ho Bae,Sungroh Yoon
発行日 2023-02-17 07:43:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク