Improving Online Continual Learning Performance and Stability with Temporal Ensembles

要約

ニューラル ネットワークは、大規模なデータセットで多数の反復を行ってトレーニングすると非常に効果的です。
ただし、非定常のデータ ストリームでオンライン形式でトレーニングされると、(1) データの可用性が制限されるオンライン セットアップによって、(2) 非定常的なデータ ストリームによる致命的な忘却によって、パフォーマンスが低下します。
データの定常的な性質。
さらに、いくつかの最近の研究 (Caccia et al., 2022; Lange et al., 2023) arXiv:2205.1345(2) は、継続学習で使用されるリプレイ手法が、モデルを継続的に評価するときに遭遇する安定性ギャップに悩まされることを示しました。
タスクの境界上)。
この記事では、オンライン継続学習におけるパフォーマンスと安定性を向上させる方法として、モデル アンサンブルの効果を研究します。
さまざまなトレーニング タスクから得られる単純なアンサンブル モデルにより、オンライン継続学習のパフォーマンスが大幅に向上することがわかりました。
この観察から出発し、半教師あり学習アンサンブル手法からインスピレーションを得て、テスト時に重みの指数移動平均 (EMA) を計算する軽量の時間アンサンブルを使用し、テスト時にパフォーマンスと安定性を大幅に向上できることを示します。
文献のいくつかの方法と組み合わせて使用​​されます。

要約(オリジナル)

Neural networks are very effective when trained on large datasets for a large number of iterations. However, when they are trained on non-stationary streams of data and in an online fashion, their performance is reduced (1) by the online setup, which limits the availability of data, (2) due to catastrophic forgetting because of the non-stationary nature of the data. Furthermore, several recent works (Caccia et al., 2022; Lange et al., 2023) arXiv:2205.1345(2) showed that replay methods used in continual learning suffer from the stability gap, encountered when evaluating the model continually (rather than only on task boundaries). In this article, we study the effect of model ensembling as a way to improve performance and stability in online continual learning. We notice that naively ensembling models coming from a variety of training tasks increases the performance in online continual learning considerably. Starting from this observation, and drawing inspirations from semi-supervised learning ensembling methods, we use a lightweight temporal ensemble that computes the exponential moving average of the weights (EMA) at test time, and show that it can drastically increase the performance and stability when used in combination with several methods from the literature.

arxiv情報

著者 Albin Soutif–Cormerais,Antonio Carta,Joost Van de Weijer
発行日 2023-06-29 09:53:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク