Continual Learning, Fast and Slow

要約

神経科学における補完学習システム (CLS) 理論 \cite{mcclelland1995there} によると、人間は 2 つの補完的なシステムを通じて効果的な \emph{継続的学習} を行っています。
環境に関する構造化された知識を徐々に獲得するための新皮質にある遅い学習システム。
この理論に動機付けられて、\emph{DualNets} (デュアル ネットワーク用) を提案します。これは、特定のタスクからパターン分離された表現の教師あり学習のための高速学習システムと、タスクの表現学習のための低速学習システムを含む一般的な継続的学習フレームワークです。
Self-Supervised Learning (SSL) による不可知な一般表現。
DualNets は、両方の表現タイプを全体的なフレームワークにシームレスに組み込むことで、ディープ ニューラル ネットワークでの継続的な学習を促進します。
大規模な実験を通じて、標準的なオフラインのタスク認識設定から挑戦的なオンラインのタスクフリーのシナリオまで、幅広い継続的な学習プロトコルでの DualNets の有望な結果を示しています。
特に、視覚イメージが大きく異なる無関係なタスクを含む CTrL \cite{veniat2020effective} ベンチマークでは、DualNets は既存の最先端の動的アーキテクチャ戦略 \cite{ostapenko2021continual} で競争力のあるパフォーマンスを達成できます。
さらに、包括的なアブレーション研究を実施して、DualNets の有効性、堅牢性、およびスケーラビリティを検証します。
コードは \url{https://github.com/phquang/DualNet} で公開されています。

要約(オリジナル)

According to the Complementary Learning Systems (CLS) theory \cite{mcclelland1995there} in neuroscience, humans do effective \emph{continual learning} through two complementary systems: a fast learning system centered on the hippocampus for rapid learning of the specifics, individual experiences; and a slow learning system located in the neocortex for the gradual acquisition of structured knowledge about the environment. Motivated by this theory, we propose \emph{DualNets} (for Dual Networks), a general continual learning framework comprising a fast learning system for supervised learning of pattern-separated representation from specific tasks and a slow learning system for representation learning of task-agnostic general representation via Self-Supervised Learning (SSL). DualNets can seamlessly incorporate both representation types into a holistic framework to facilitate better continual learning in deep neural networks. Via extensive experiments, we demonstrate the promising results of DualNets on a wide range of continual learning protocols, ranging from the standard offline, task-aware setting to the challenging online, task-free scenario. Notably, on the CTrL \cite{veniat2020efficient} benchmark that has unrelated tasks with vastly different visual images, DualNets can achieve competitive performance with existing state-of-the-art dynamic architecture strategies \cite{ostapenko2021continual}. Furthermore, we conduct comprehensive ablation studies to validate DualNets efficacy, robustness, and scalability. Code is publicly available at \url{https://github.com/phquang/DualNet}.

arxiv情報

著者 Quang Pham,Chenghao Liu,Steven C. H. Hoi
発行日 2022-10-26 12:27:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク