Overcoming the Stability Gap in Continual Learning

要約

実際のアプリケーションの多くでは、データセットのサイズが大きくなるにつれて、ディープ ニューラル ネットワークが最初から再トレーニングされます。
ネットワークの再トレーニングにかかる​​計算コストを考慮すると、継続的な学習によりネットワークの更新がより効率的に行える可能性があると主張されています。
この目標を達成するための障害となるのは安定性ギャップです。安定性ギャップとは、新しいデータを更新するときに、以前に学習したデータのパフォーマンスが回復する前に低下するという観察を指します。
この問題に対処すると、より少ないネットワーク更新で新しいデータを学習できるようになり、計算効率が向上します。
私たちは安定性のギャップを軽減する方法を研究します。
安定性のギャップがなぜ発生するのかを理解するために、さまざまな仮説を検証します。
これにより、このギャップを大幅に削減する方法が発見されました。
大規模なクラスの増分学習実験では、継続的な学習に必要なネットワーク更新の回数を大幅に削減できます。
私たちの取り組みは、最新のニューラル ネットワークを維持するために必要な二酸化炭素排出量を削減するとともに、実世界のアプリケーション向けの継続学習における最先端技術を進歩させる可能性を秘めています。

要約(オリジナル)

In many real-world applications, deep neural networks are retrained from scratch as a dataset grows in size. Given the computational expense for retraining networks, it has been argued that continual learning could make updating networks more efficient. An obstacle to achieving this goal is the stability gap, which refers to an observation that when updating on new data, performance on previously learned data degrades before recovering. Addressing this problem would enable learning new data with fewer network updates, resulting in increased computational efficiency. We study how to mitigate the stability gap. We test a variety of hypotheses to understand why the stability gap occurs. This leads us to discover a method that vastly reduces this gap. In large-scale class incremental learning experiments, we are able to significantly reduce the number of network updates needed for continual learning. Our work has the potential to advance the state-of-the-art in continual learning for real-world applications along with reducing the carbon footprint required to maintain updated neural networks.

arxiv情報

著者 Md Yousuf Harun,Christopher Kanan
発行日 2023-09-29 17:37:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク