Improving Online Continual Learning Performance and Stability with Temporal Ensembles

要約

ニューラルネットワークは、大規模なデータセットで多数の反復学習を行うと非常に効果的である。しかし、非定常なデータストリームに対してオンライン方式で学習させた場合、(1)オンラインセットアップによりデータの利用可能性が制限されるため、(2)データの非定常性により壊滅的な忘却が起こるため、性能が低下する。さらに、いくつかの最近の研究(Caccia et al., 2022; Lange et al., 2023)arXiv:2205.13452は、継続的学習で用いられる再生手法は、(タスク境界のみではなく)継続的にモデルを評価する際に生じる安定性のギャップに悩まされることを示した。この論文では、オンライン継続学習における性能と安定性を改善する方法として、モデルアンサンブルの効果を研究する。我々は、様々な訓練タスクから得られたモデルを素朴にアンサンブルすることで、オンライン継続学習の性能が大幅に向上することに気づく。この観察から出発し、半教師付き学習のアンサンブル手法からヒントを得て、テスト時に重みの指数移動平均(EMA)を計算する軽量の時間的アンサンブルを用い、文献にあるいくつかの手法と組み合わせて用いることで、性能と安定性を劇的に向上させることができることを示す。

要約(オリジナル)

Neural networks are very effective when trained on large datasets for a large number of iterations. However, when they are trained on non-stationary streams of data and in an online fashion, their performance is reduced (1) by the online setup, which limits the availability of data, (2) due to catastrophic forgetting because of the non-stationary nature of the data. Furthermore, several recent works (Caccia et al., 2022; Lange et al., 2023) arXiv:2205.13452 showed that replay methods used in continual learning suffer from the stability gap, encountered when evaluating the model continually (rather than only on task boundaries). In this article, we study the effect of model ensembling as a way to improve performance and stability in online continual learning. We notice that naively ensembling models coming from a variety of training tasks increases the performance in online continual learning considerably. Starting from this observation, and drawing inspirations from semi-supervised learning ensembling methods, we use a lightweight temporal ensemble that computes the exponential moving average of the weights (EMA) at test time, and show that it can drastically increase the performance and stability when used in combination with several methods from the literature.

arxiv情報

著者 Albin Soutif–Cormerais,Antonio Carta,Joost Van de Weijer
発行日 2023-07-03 14:55:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク