A Theoretical Study on Solving Continual Learning

要約

継続的学習(CL)は一連のタスクを漸進的に学習するものである。継続的学習には、クラス漸増学習(CIL)とタスク漸増学習(TIL)という2つの一般的な設定がある。CLの大きな課題は、壊滅的忘却(Catastrophic Forgetting: CF)である。TILではCFを効果的に克服するための技術が既に多数提供されているが、CILは依然として高い難易度を有している。これまでのところ、CIL問題の解決方法について原理的な指針を与える理論的研究はほとんど行われていない。本論文では、そのような研究を行う。まず、CIL問題は確率的に2つのサブ問題に分解できることを示す。タスク内予測(WP)とタスクID予測(TP)である。さらに、TPが分布外(OOD)検出と相関があることを証明し、CILとOOD検出を結びつける。本研究の重要な結論は、WPとTPまたはOOD検出がCILアルゴリズムによって明示的または暗黙的に定義されるかどうかにかかわらず、良いWPと良いTPまたはOOD検出は良いCIL性能に必要かつ十分であるということである。さらに、TILは単純にWPである。この理論的な結果に基づき、新しいCIL法が設計され、CILとTILの両方の設定において、強力なベースラインを大きく上回る性能を発揮する。

要約(オリジナル)

Continual learning (CL) learns a sequence of tasks incrementally. There are two popular CL settings, class incremental learning (CIL) and task incremental learning (TIL). A major challenge of CL is catastrophic forgetting (CF). While a number of techniques are already available to effectively overcome CF for TIL, CIL remains to be highly challenging. So far, little theoretical study has been done to provide a principled guidance on how to solve the CIL problem. This paper performs such a study. It first shows that probabilistically, the CIL problem can be decomposed into two sub-problems: Within-task Prediction (WP) and Task-id Prediction (TP). It further proves that TP is correlated with out-of-distribution (OOD) detection, which connects CIL and OOD detection. The key conclusion of this study is that regardless of whether WP and TP or OOD detection are defined explicitly or implicitly by a CIL algorithm, good WP and good TP or OOD detection are necessary and sufficient for good CIL performances. Additionally, TIL is simply WP. Based on the theoretical result, new CIL methods are also designed, which outperform strong baselines in both CIL and TIL settings by a large margin.

arxiv情報

著者 Gyuhak Kim,Changnan Xiao,Tatsuya Konishi,Zixuan Ke,Bing Liu
発行日 2022-11-04 17:45:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク