要約
タイトル:継続的学習において補助ネットワークを用いることで安定性と柔軟性のトレードオフを改善する
要約:
– 人間が新しいタスクを逐次的に学ぶことができるのに対して、ニューラルネットワークは新しいタスクに最適化された後、以前のタスクでの性能が劇的に低下する適応性の欠如現象を起こすことがある。
– その解決策として、持続的学習(CL)コミュニティは、ニューラルネットワークに現在のタスクを学習する能力(柔軟性)を与えながら、以前のタスクでも高い精度(安定性)を維持するためのいくつかの解決策を提案している。
– これまでにいくつかの改善がされてきたが、柔軟性と安定性のトレードオフはまだ解決されておらず、その基礎となるメカニズムは理解されていない。
– この研究では、主に安定性に重点を置いた継続的学習モデルに柔軟性を促進するための追加の補助ネットワークを適用する新しい方法であるAuxiliary Network Continual Learning(ANCL)を提案する。
– 具体的には、柔軟性と安定性の間で自然に変動する正則化項が、提案されたフレームワークに取り込まれており、タスクの増量およびクラスの増量シナリオに対して強いベースラインを上回る結果を示す。
– ANCLソリューションに関する詳細な分析により、安定性と柔軟性のトレードオフにあるいくつかの重要な原則を特定できることが示された。
要約(オリジナル)
In contrast to the natural capabilities of humans to learn new tasks in a sequential fashion, neural networks are known to suffer from catastrophic forgetting, where the model’s performances on old tasks drop dramatically after being optimized for a new task. Since then, the continual learning (CL) community has proposed several solutions aiming to equip the neural network with the ability to learn the current task (plasticity) while still achieving high accuracy on the previous tasks (stability). Despite remarkable improvements, the plasticity-stability trade-off is still far from being solved and its underlying mechanism is poorly understood. In this work, we propose Auxiliary Network Continual Learning (ANCL), a novel method that applies an additional auxiliary network which promotes plasticity to the continually learned model which mainly focuses on stability. More concretely, the proposed framework materializes in a regularizer that naturally interpolates between plasticity and stability, surpassing strong baselines on task incremental and class incremental scenarios. Through extensive analyses on ANCL solutions, we identify some essential principles beneath the stability-plasticity trade-off.
arxiv情報
著者 | Sanghwan Kim,Lorenzo Noci,Antonio Orvieto,Thomas Hofmann |
発行日 | 2023-03-31 17:58:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI