要約
継続的な学習は、1つのモデルが壊滅的な忘却をすることなく一連のタスクを学習できるようにすることを目的としている。しかし、プライバシーやメモリの制約から、その実用的な価値は限定的である。本研究では、プロンプトと呼ばれる極小のパラメータセットを学習することで、事前学習済みのモデルに、過去の事例をバッファリングせずに順次到着するタスクを適切に学習させる、シンプルかつ効果的なフレームワーク、DualPromptを提案する。DualPromptは、事前学習されたバックボーンに補完的なプロンプトを追加する新しいアプローチを提示し、タスク不変かつタスク固有の「命令」の学習として目的を定式化する。広範な実験的検証により、DualPromptは困難なクラス増分設定において、常に最先端の性能を示す。特に、DualPromptは、比較的大きなバッファサイズを持つ最近の先進的な継続的学習法を凌駕する性能を示す。また、リハーサル不要の継続的学習の研究を一般化するために、より困難なベンチマークであるSplit ImageNet-Rを導入する。ソースコードは https://github.com/google-research/l2p で公開されています。
要約(オリジナル)
Continual learning aims to enable a single model to learn a sequence of tasks without catastrophic forgetting. Top-performing methods usually require a rehearsal buffer to store past pristine examples for experience replay, which, however, limits their practical value due to privacy and memory constraints. In this work, we present a simple yet effective framework, DualPrompt, which learns a tiny set of parameters, called prompts, to properly instruct a pre-trained model to learn tasks arriving sequentially without buffering past examples. DualPrompt presents a novel approach to attach complementary prompts to the pre-trained backbone, and then formulates the objective as learning task-invariant and task-specific ‘instructions’. With extensive experimental validation, DualPrompt consistently sets state-of-the-art performance under the challenging class-incremental setting. In particular, DualPrompt outperforms recent advanced continual learning methods with relatively large buffer sizes. We also introduce a more challenging benchmark, Split ImageNet-R, to help generalize rehearsal-free continual learning research. Source code is available at https://github.com/google-research/l2p.
arxiv情報
| 著者 | Zifeng Wang,Zizhao Zhang,Sayna Ebrahimi,Ruoxi Sun,Han Zhang,Chen-Yu Lee,Xiaoqi Ren,Guolong Su,Vincent Perot,Jennifer Dy,Tomas Pfister |
| 発行日 | 2022-08-05 11:26:06+00:00 |
| arxivサイト | arxiv_id(pdf) |