Learning to Learn without Forgetting using Attention

要約

継続学習 (CL) とは、以前に学んだ経験を保持しながら、新しい知識を受け入れることによって、時間をかけて継続的に学習する能力を指します。
この概念は人間の学習に固有のものですが、現在の機械学習手法は以前に学習したパターンを上書きする傾向が非常に高く、したがって過去の経験を忘れてしまいます。
代わりに、モデル パラメーターを選択的かつ慎重に更新し、不要な忘れを回避しながら、以前に学習したパターンを最適に活用して今後の学習を加速する必要があります。
効果的な更新メカニズムを手作りするのは難しいため、CL を強化するトランスフォーマーベースのオプティマイザーのメタ学習を提案します。
このメタ学習オプティマイザーは、アテンションを使用して、一連のタスク全体にわたるモデル パラメーター間の複雑な関係を学習し、以前に遭遇したタスクの致命的な忘れを防ぎながら、現在のタスクの効果的な重み更新を生成するように設計されています。
SplitMNIST、RotatedMNIST、SplitCIFAR-100 などのベンチマーク データセットの評価では、たとえラベル付きデータの小さなセットであっても、前方転送と後方転送の両方の観点から提案されたアプローチの有効性が確認され、継続的なデータセット内にメタ学習されたオプティマイザーを統合する利点が強調されています。
学習フレームワーク。

要約(オリジナル)

Continual learning (CL) refers to the ability to continually learn over time by accommodating new knowledge while retaining previously learned experience. While this concept is inherent in human learning, current machine learning methods are highly prone to overwrite previously learned patterns and thus forget past experience. Instead, model parameters should be updated selectively and carefully, avoiding unnecessary forgetting while optimally leveraging previously learned patterns to accelerate future learning. Since hand-crafting effective update mechanisms is difficult, we propose meta-learning a transformer-based optimizer to enhance CL. This meta-learned optimizer uses attention to learn the complex relationships between model parameters across a stream of tasks, and is designed to generate effective weight updates for the current task while preventing catastrophic forgetting on previously encountered tasks. Evaluations on benchmark datasets like SplitMNIST, RotatedMNIST, and SplitCIFAR-100 affirm the efficacy of the proposed approach in terms of both forward and backward transfer, even on small sets of labeled data, highlighting the advantages of integrating a meta-learned optimizer within the continual learning framework.

arxiv情報

著者 Anna Vettoruzzo,Joaquin Vanschoren,Mohamed-Rafik Bouguelia,Thorsteinn Rögnvaldsson
発行日 2024-08-06 14:25:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク