要約
深層学習システムは、一連のタスクから学習するときに壊滅的な忘却を起こしやすいため、新しいタスクから学習するときに経験済みのタスクからの古いデータが利用できなくなります。
この問題を軽減するために、一連の方法では、新しいタスクを学習するときに経験済みのタスクのデータを再生することが提案されています。
これらの方法では通常、再生用のデータを保存するために追加のメモリが採用されます。
ただし、メモリの制約やデータ プライバシーの問題を考慮すると、実際にはこれは期待できません。
代わりに、分類モデルからサンプルを反転することにより、データフリーのデータ再生方法が提案されています。
これらの方法は良好な結果を達成していますが、最近の研究では反転段階で無視されている、反転されたトレーニング データと実際のトレーニング データの不一致に依然として悩まされています。
そのために、いくつかの単純化と仮定によってデータの一貫性を定量的に測定することを提案します。
この測定結果を使用して、サンプルを反転するための既存の手法を分析し、不整合を低減するための新しい損失関数を生み出す洞察力に富んだ情報を取得します。
具体的には、損失により、結合多変量ガウス仮定の下で反転データと実データの分布の KL 発散が最小限に抑えられ、継続学習での実装が容易になります。
さらに、学習が進むにつれて、古いクラスの重みの基準が継続的に減少に転じることが観察されます。
したがって、根本的な理由を分析し、古いクラスのサンプルがより区別しやすくなるようにクラスの重みのバランスを取るための単純な正則化項を提案します。
結論として、クラス増分学習 (CCIL) 用の偏りのない分類子を使用した一貫性強化データ再生を提案します。
CIFAR-100、Tiny-ImageNet、および ImageNet100 に関する広範な実験により、以前のアプローチと比較して CCIL のパフォーマンスが一貫して向上していることが示されています。
要約(オリジナル)
Deep learning systems are prone to catastrophic forgetting when learning from a sequence of tasks, where old data from experienced tasks is unavailable when learning from a new task. To mitigate the problem, a line of methods propose to replay the data of experienced tasks when learning new tasks. These methods usually adopt an extra memory to store the data for replay. However, it is not expected in practice considering the memory constraint or data privacy issue. As a replacement, data-free data replay methods are proposed by inverting samples from the classification model. Though achieving good results, these methods still suffer from the inconsistency of the inverted and real training data, which is neglected in the inversion stage in recent works. To that effect, we propose to measure the data consistency quantitatively by some simplification and assumptions. Using the measurement, we analyze existing techniques for inverting samples and get some insightful information that inspires a novel loss function to reduce the inconsistency. Specifically, the loss minimizes the KL divergence of the distributions of inverted and real data under the tied multivariate Gaussian assumption, which is easy to implement in continual learning. In addition, we observe that the norms of old class weights turn to decrease continually as learning progresses. We thus analyze the underlying reasons and propose a simple regularization term to balance the class weights so that the samples of old classes are more distinguishable. To conclude, we propose the Consistency enhanced data replay with debiased classifier for Class Incremental Learning (CCIL). Extensive experiments on CIFAR-100, Tiny-ImageNet, and ImageNet100 show consistently improved performance of CCIL compared to previous approaches.
arxiv情報
著者 | Chenyang Wang,Junjun Jiang,Xingyu Hu,Xianming Liu,Xiangyang Ji |
発行日 | 2024-01-12 12:51:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google