要約
この研究では、継続学習 (CL) の問題を研究します。目標は、現在のタスク データを学習している間は前のタスクのデータが利用できなくなるような、一連のタスクに関するモデルを学習することです。
CL は本質的に、新しいタスクについて学習できること (つまり、可塑性) と、以前に学習した概念に基づくパフォーマンスを維持すること (つまり、安定性) の間のバランスをとる行為です。
安定性と可塑性のトレードオフに対処することを目的として、以前のタスクと現在のタスクのモデル パラメーターの重みアンサンブルを実行することを提案します。
この重みをアンサンブルしたモデルは、連続モデル平均化 (CoMA) と呼ばれ、以前の重み設定から大きく逸脱せず、安定性を確保しながら、可塑性を活用することで現在のタスクで高い精度を達成します。
また、モデルの重みのフィッシャー情報を利用して、重みアンサンブル内の各パラメーターを選択的に重み付けする、連続フィッシャー重み付けモデル平均 (CoFiMA) と呼ばれる CoMA の改良版も提案します。
どちらのバリアントも概念的にシンプルで実装が簡単で、いくつかの標準 CL ベンチマークで最先端のパフォーマンスを達成するのに効果的です。
要約(オリジナル)
In this work, we study the problem of continual learning (CL) where the goal is to learn a model on a sequence of tasks, such that the data from the previous tasks becomes unavailable while learning on the current task data. CL is essentially a balancing act between being able to learn on the new task (i.e., plasticity) and maintaining the performance on the previously learned concepts (i.e., stability). With an aim to address the stability-plasticity trade-off, we propose to perform weight-ensembling of the model parameters of the previous and current task. This weight-ensembled model, which we call Continual Model Averaging (or CoMA), attains high accuracy on the current task by leveraging plasticity, while not deviating too far from the previous weight configuration, ensuring stability. We also propose an improved variant of CoMA, named Continual Fisher-weighted Model Averaging (or CoFiMA), that selectively weighs each parameter in the weight ensemble by leveraging the Fisher information of the weights of the model. Both the variants are conceptually simple, easy to implement, and effective in attaining state-of-the-art performance on several standard CL benchmarks.
arxiv情報
著者 | Imad Eddine Marouf,Subhankar Roy,Enzo Tartaglione,Stéphane Lathuilière |
発行日 | 2023-12-14 14:26:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google