Knowledge Accumulation in Continually Learned Representations and the Issue of Feature Forgetting

要約

継続的な学習の研究では、ニューラル ネットワークが「出力レベルで」壊滅的な忘却に悩まされることが示されていますが、これが学習された表現のレベルでも当てはまるかどうかは議論されています。
複数の最近の研究は、表現が忘却に対して一定レベルの生来の頑健性を持っていること、つまり出力レベルでの忘却と比較して最小限しか忘れないことを原因としていると考えています。
この忘却の違いを明らかにした実験を再検討して拡張し、継続的に学習される表現の品質に影響を与える 2 つの現象、つまり知識の蓄積と特徴の忘却が共存することを説明します。
両方の側面を考慮すると、表現における忘れ(つまり、特徴の忘却)は絶対的には小さい可能性がありますが、タスク中に学習した量と比較して測定すると、表現における忘れは同様に壊滅的な傾向があることがわかります。
出力レベルでの忘れと同じです。
次に、この特徴の忘却が、優れた一般表現の漸進的学習 (つまり、知識の蓄積) を大幅に遅らせるため、問題があることを示します。
最後に、特徴の忘却と知識の蓄積がさまざまなタイプの継続的学習方法によってどのような影響を受けるかを研究します。

要約(オリジナル)

Continual learning research has shown that neural networks suffer from catastrophic forgetting ‘at the output level’, but it is debated whether this is also the case at the level of learned representations. Multiple recent studies ascribe representations a certain level of innate robustness against forgetting — that they only forget minimally in comparison with forgetting at the output level. We revisit and expand upon the experiments that revealed this difference in forgetting and illustrate the coexistence of two phenomena that affect the quality of continually learned representations: knowledge accumulation and feature forgetting. Taking both aspects into account, we show that, even though forgetting in the representation (i.e. feature forgetting) can be small in absolute terms, when measuring relative to how much was learned during a task, forgetting in the representation tends to be just as catastrophic as forgetting at the output level. Next we show that this feature forgetting is problematic as it substantially slows down the incremental learning of good general representations (i.e. knowledge accumulation). Finally, we study how feature forgetting and knowledge accumulation are affected by different types of continual learning methods.

arxiv情報

著者 Timm Hess,Eli Verwimp,Gido M. van de Ven,Tinne Tuytelaars
発行日 2024-06-24 12:03:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク