Knowledge Accumulation in Continually Learned Representations and the Issue of Feature Forgetting

要約

継続的な学習の研究では、ニューラル ネットワークが「出力レベルで」壊滅的な忘却に悩まされることが示されていますが、これが学習された表現のレベルでも当てはまるかどうかは議論されています。
複数の最近の研究は、表現が忘れることに対して一定レベルの生来の堅牢性、つまり最小限しか忘れず、重要な情報をまったく忘れないことを原因としています。
この忘却の違いを明らかにした実験を再検討して拡張し、継続的に学習される表現の品質に影響を与える 2 つの現象、つまり知識の蓄積と特徴の忘却が共存することを説明します。
両方の側面を注意深く考慮すると、特徴の忘却が絶対的には小さい可能性があるのは事実ですが、新たに学習した情報は、出力レベルと同様に表現レベルでも壊滅的に忘れられる傾向があることがわかります。
次に、この機能の忘却が知識の蓄積を大幅に遅らせるため、問題があることを示します。
最後に、特徴の忘却と知識の蓄積がさまざまなタイプの継続的学習方法によってどのような影響を受けるかを研究します。

要約(オリジナル)

Continual learning research has shown that neural networks suffer from catastrophic forgetting ‘at the output level’, but it is debated whether this is also the case at the level of learned representations. Multiple recent studies ascribe representations a certain level of innate robustness against forgetting – that they only forget minimally and no critical information. We revisit and expand upon the experiments that revealed this difference in forgetting and illustrate the coexistence of two phenomena that affect the quality of continually learned representations: knowledge accumulation and feature forgetting. Carefully taking both aspects into account, we show that, even though it is true that feature forgetting can be small in absolute terms, newly learned information tends to be forgotten just as catastrophically at the level of the representation as it is at the output level. Next we show that this feature forgetting is problematic as it substantially slows down knowledge accumulation. Finally, we study how feature forgetting and knowledge accumulation are affected by different types of continual learning methods.

arxiv情報

著者 Timm Hess,Eli Verwimp,Gido M. van de Ven,Tinne Tuytelaars
発行日 2024-02-29 15:04:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク