Achieving a Better Stability-Plasticity Trade-off via Auxiliary Networks in Continual Learning

要約

新しいタスクを逐次的に学習する人間の自然な能力とは対照的に、ニューラル ネットワークは、新しいタスクに最適化された後、古いタスクでのモデルのパフォーマンスが劇的に低下する壊滅的な忘却に悩まされることが知られています。
それ以来、継続的学習 (CL) コミュニティは、ニューラル ネットワークに現在のタスクを学習する能力 (可塑性) を持たせながら、以前のタスクで高い精度を達成する (安定性) ことを目的としたいくつかのソリューションを提案してきました。
顕著な改善にもかかわらず、可塑性と安定性のトレードオフはまだ解決されておらず、その根底にあるメカニズムはよくわかっていません。
この作業では、主に安定性に焦点を当てた継続的に学習されたモデルに可塑性を促進する追加の補助ネットワークを適用する新しい方法である、補助ネットワーク継続学習 (ANCL) を提案します。
より具体的には、提案されたフレームワークは、可塑性と安定性の間を自然に補間する正則化で実現し、タスクの増分シナリオとクラスの増分シナリオの強力なベースラインを上回ります。
ANCLソリューションの広範な分析を通じて、安定性と可塑性のトレードオフの下にあるいくつかの重要な原則を特定します。

要約(オリジナル)

In contrast to the natural capabilities of humans to learn new tasks in a sequential fashion, neural networks are known to suffer from catastrophic forgetting, where the model’s performances on old tasks drop dramatically after being optimized for a new task. Since then, the continual learning (CL) community has proposed several solutions aiming to equip the neural network with the ability to learn the current task (plasticity) while still achieving high accuracy on the previous tasks (stability). Despite remarkable improvements, the plasticity-stability trade-off is still far from being solved and its underlying mechanism is poorly understood. In this work, we propose Auxiliary Network Continual Learning (ANCL), a novel method that applies an additional auxiliary network which promotes plasticity to the continually learned model which mainly focuses on stability. More concretely, the proposed framework materializes in a regularizer that naturally interpolates between plasticity and stability, surpassing strong baselines on task incremental and class incremental scenarios. Through extensive analyses on ANCL solutions, we identify some essential principles beneath the stability-plasticity trade-off.

arxiv情報

著者 Sanghwan Kim,Lorenzo Noci,Antonio Orvieto,Thomas Hofmann
発行日 2023-03-16 17:00:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク