要約
最近、基礎言語モデル (LM) は、自然言語処理 (NLP) とコンピューター ビジョン (CV) の分野で重要な成果を上げています。
従来のニューラル ネットワーク モデルとは異なり、基礎 LM は、膨大な数のパラメーターを含む広範な教師なしデータセットでの事前トレーニングを通じて豊富な常識知識を取得することで、転移学習の優れた能力を獲得します。
しかし、壊滅的な忘却のため、人間のような継続的な学習をエミュレートすることはまだできません。
その結果、LM を改良するためにさまざまな継続学習 (CL) ベースの方法論が開発され、以前の知識を忘れることなく新しいタスクに適応できるようになりました。
しかし、既存のアプローチの体系的な分類とそのパフォーマンスの比較はまだ不足しており、それが私たちの調査の目的であるギャップです。
事前トレーニング済み言語モデル (PLM)、大規模言語モデル (LLM)、ビジョン言語モデル (VLM) などの基礎言語モデルに適用される CL ベースのアプローチに関する既存の文献を包括的にレビュー、要約、分類します。
)。
これらの研究をオフライン CL とオンライン CL に分けます。これらは、従来の手法、パラメータ効率ベースの手法、命令チューニングベースの手法、および継続的な事前トレーニング手法で構成されます。
オフライン CL にはドメイン増分学習、タスク増分学習、クラス増分学習が含まれますが、オンライン CL はハード タスク境界設定と曖昧なタスク境界設定に細分されます。
さらに、CL 研究で使用される典型的なデータセットと指標の概要を説明し、LM ベースの継続学習の課題と今後の取り組みについて詳細な分析を提供します。
要約(オリジナル)
Recently, foundation language models (LMs) have marked significant achievements in the domains of natural language processing (NLP) and computer vision (CV). Unlike traditional neural network models, foundation LMs obtain a great ability for transfer learning by acquiring rich commonsense knowledge through pre-training on extensive unsupervised datasets with a vast number of parameters. However, they still can not emulate human-like continuous learning due to catastrophic forgetting. Consequently, various continual learning (CL)-based methodologies have been developed to refine LMs, enabling them to adapt to new tasks without forgetting previous knowledge. However, a systematic taxonomy of existing approaches and a comparison of their performance are still lacking, which is the gap that our survey aims to fill. We delve into a comprehensive review, summarization, and classification of the existing literature on CL-based approaches applied to foundation language models, such as pre-trained language models (PLMs), large language models (LLMs) and vision-language models (VLMs). We divide these studies into offline CL and online CL, which consist of traditional methods, parameter-efficient-based methods, instruction tuning-based methods and continual pre-training methods. Offline CL encompasses domain-incremental learning, task-incremental learning, and class-incremental learning, while online CL is subdivided into hard task boundary and blurry task boundary settings. Additionally, we outline the typical datasets and metrics employed in CL research and provide a detailed analysis of the challenges and future work for LMs-based continual learning.
arxiv情報
著者 | Yutao Yang,Jie Zhou,Xuanwen Ding,Tianyu Huai,Shunyu Liu,Qin Chen,Yuan Xie,Liang He |
発行日 | 2024-11-29 16:19:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google