要約
基盤モデルは広範な知識ベースを網羅しており、優れた移転可能性を提供します。
ただし、この知識は時間の経過とともに時代遅れになるか、不十分になります。
課題は、元の機能を維持しながら新しい情報に対応するために基礎モデルを継続的に更新することにあります。
基礎モデルがさまざまなタスクやドメインに関する初期知識を持っているという事実を利用して、すべてのパラメーターを均等に更新するのではなく、学習中のタスクに関連するまばらなパラメーターのセットに更新を局所化する新しいアプローチを提案します。
私たちは、基礎モデルの移植性と一般化性を維持しながら、効率と新しいタスクのパフォーマンスのバランスをとります。
私たちは、さまざまな範囲の継続的な学習タスクを使用して、基礎的な視覚言語モデルに基づいてメソッドを広範囲に評価します。
私たちの方法では、代表的なコントロールセットの精度で 0.9% という無視できる低下で、トレーニング前の知識を維持しながら、新たに学習したタスクの精度が最大 7% 向上しました。
要約(オリジナル)
Foundation models encompass an extensive knowledge base and offer remarkable transferability. However, this knowledge becomes outdated or insufficient over time. The challenge lies in continuously updating foundation models to accommodate novel information while retaining their original capabilities. Leveraging the fact that foundation models have initial knowledge on various tasks and domains, we propose a novel approach that, instead of updating all parameters equally, localizes the updates to a sparse set of parameters relevant to the task being learned. We strike a balance between efficiency and new task performance, while maintaining the transferability and generalizability of foundation models. We extensively evaluate our method on foundational vision-language models with a diverse spectrum of continual learning tasks. Our method achieves improvements on the accuracy of the newly learned tasks up to 7% while preserving the pretraining knowledge with a negligible decrease of 0.9% on a representative control set accuracy.
arxiv情報
著者 | Wenxuan Zhang,Paul Janson,Rahaf Aljundi,Mohamed Elhoseiny |
発行日 | 2023-12-06 13:46:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google