Slowing Down Forgetting in Continual Learning

要約

継続学習(CL)における一般的な課題は、新しいタスクを追加学習した後に古いタスクのパフォーマンスが低下する壊滅的忘却である。本論文では、CLにおける忘却を遅らせるためのReCLと呼ばれる新しいフレームワークを提案する。我々のフレームワークは、勾配ベースのニューラルネットワークがマージン最大化点に収束する暗黙のバイアスを利用する。このような収束点により、過去のタスクから古いデータを再構築し、それを現在の学習データと組み合わせることができる。我々のフレームワークは柔軟であり、既存の最先端のCL手法の上に適用することができる。さらに、2つの困難なCLシナリオ(クラスインクリメンタル学習とドメインインクリメンタル学習)、異なるデータセット(MNIST、CIFAR10、TinyImagenet)、異なるネットワークアーキテクチャを含む、大規模な一連の実験を通して、我々のフレームワークによる性能向上を実証する。全ての実験において、我々はReCLによる大きな性能向上を発見した。我々の知る限り、我々のフレームワークは、CLにおけるモデルを独自のメモリバッファとして活用することにより、壊滅的な忘却に対処する最初のものである。

要約(オリジナル)

A common challenge in continual learning (CL) is catastrophic forgetting, where the performance on old tasks drops after new, additional tasks are learned. In this paper, we propose a novel framework called ReCL to slow down forgetting in CL. Our framework exploits an implicit bias of gradient-based neural networks due to which these converge to margin maximization points. Such convergence points allow us to reconstruct old data from previous tasks, which we then combine with the current training data. Our framework is flexible and can be applied on top of existing, state-of-the-art CL methods. We further demonstrate the performance gain from our framework across a large series of experiments, including two challenging CL scenarios (class incremental and domain incremental learning), different datasets (MNIST, CIFAR10, TinyImagenet), and different network architectures. Across all experiments, we find large performance gains through ReCL. To the best of our knowledge, our framework is the first to address catastrophic forgetting by leveraging models in CL as their own memory buffers.

arxiv情報

著者 Pascal Janetzky,Tobias Schlagenhauf,Stefan Feuerriegel
発行日 2025-03-03 10:22:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク