Practical self-supervised continual learning with continual fine-tuning

要約

タイトル:継続的なファインチューニングによる実用的な自己教示学習

要約:
– 自己教示学習(SSL)は、オフラインでトレーニングされた場合、コンピュータビジョンのタスクで驚異的なパフォーマンスを示しました。
– しかし、新しいデータが徐々に導入される継続的学習(CL)シナリオでは、モデルはまだ重大な忘却に苦しんでいます。
– この論文では、利用可能なラベルがSSLプロセスの任意の段階で活用できる実用的な設定で自己教示学習を一般化します。
– Kaizenを使用することで、特徴抽出器と分類器の両方に対して、慎重に設計された損失関数により重大な忘却を緩和できるトレーニングアーキテクチャを導入します。
– 継続的な学習の異なる側面を反映する包括的な評価メトリックセットを使用して、Kaizenが競争力のあるビジョンベンチマークで前のSSLモデルを大幅に上回ることを示しました。
– Kaizenは、知識保持と新しいデータからの学習のトレードオフをエンドツーエンドモデルでバランスさせ、継続的学習システムの実用的な展開のための道を開きます。

要約(オリジナル)

Self-supervised learning (SSL) has shown remarkable performance in computer vision tasks when trained offline. However, in a Continual Learning (CL) scenario where new data is introduced progressively, models still suffer from catastrophic forgetting. Retraining a model from scratch to adapt to newly generated data is time-consuming and inefficient. Previous approaches suggested re-purposing self-supervised objectives with knowledge distillation to mitigate forgetting across tasks, assuming that labels from all tasks are available during fine-tuning. In this paper, we generalize self-supervised continual learning in a practical setting where available labels can be leveraged in any step of the SSL process. With an increasing number of continual tasks, this offers more flexibility in the pre-training and fine-tuning phases. With Kaizen, we introduce a training architecture that is able to mitigate catastrophic forgetting for both the feature extractor and classifier with a carefully designed loss function. By using a set of comprehensive evaluation metrics reflecting different aspects of continual learning, we demonstrated that Kaizen significantly outperforms previous SSL models in competitive vision benchmarks, with up to 16.5% accuracy improvement on split CIFAR-100. Kaizen is able to balance the trade-off between knowledge retention and learning from new data with an end-to-end model, paving the way for practical deployment of continual learning systems.

arxiv情報

著者 Chi Ian Tang,Lorena Qendro,Dimitris Spathis,Fahim Kawsar,Cecilia Mascolo,Akhil Mathur
発行日 2023-03-30 09:08:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク