要約
継続的な学習アルゴリズムは、一連のタスクから学習し、トレーニング分布を非定常にすることを目的としています。
文献の既存の継続的な学習アプローチの大部分は、ヒューリスティックに依存しており、継続的な学習セットアップの学習保証を提供していません。
この論文では、「Continual Pick-to-Learn」(COP2L)と呼ばれる新しい方法を提示します。これは、各タスクの最も代表的なサンプルを効率的な方法で保持できます。
アルゴリズムは、サンプル圧縮理論に根ざしたピック間アルゴリズムから採用されています。
これにより、学習モデルの更新ごとに数値的に計算できる、学習予測子の一般化損失に高い自信の上限を提供することができます。
また、いくつかの標準的な継続的な学習ベンチマークで、アルゴリズムが標準エクスペリエンスリプレイを上回ることができることを経験的に示し、壊滅的な忘却を大幅に軽減します。
要約(オリジナル)
Continual learning algorithms aim to learn from a sequence of tasks, making the training distribution non-stationary. The majority of existing continual learning approaches in the literature rely on heuristics and do not provide learning guarantees for the continual learning setup. In this paper, we present a new method called ‘Continual Pick-to-Learn’ (CoP2L), which is able to retain the most representative samples for each task in an efficient way. The algorithm is adapted from the Pick-to-Learn algorithm, rooted in the sample compression theory. This allows us to provide high-confidence upper bounds on the generalization loss of the learned predictors, numerically computable after every update of the learned model. We also empirically show on several standard continual learning benchmarks that our algorithm is able to outperform standard experience replay, significantly mitigating catastrophic forgetting.
arxiv情報
著者 | Jacob Comeau,Mathieu Bazinet,Pascal Germain,Cem Subakan |
発行日 | 2025-03-13 16:05:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google