Continual Learning with Low Rank Adaptation

要約

事前トレーニング済みトランスフォーマーを使用した最近の研究では、対象となる下流の問題からのデータを使用して微調整すると、優れたパフォーマンスが示されました。
ただし、データの特性が変化すると、そのパフォーマンスを維持するのに苦労します。
このペーパーでは、事前トレーニングされたトランスフォーマーが、以前にトレーニングされたデータでのパフォーマンスを維持しながら、新しいデータで適切にパフォーマンスを発揮するように更新される継続学習に焦点を当てます。
これまでの研究では、主にプロンプ​​ト チューニングからインスピレーションを得た方法を通じてこれに取り組んできました。
私たちはこの選択に疑問を持ち、低ランク適応 (LoRA) の継続学習への適用可能性を調査します。
さまざまなドメイン増分学習ベンチマークにおいて、当社の LoRA ベースのソリューションである CoLoR は、プロンプト チューニング ベースの手法と同等のパラメーター効率を維持しながら、最先端のパフォーマンスを実現します。

要約(オリジナル)

Recent work using pretrained transformers has shown impressive performance when fine-tuned with data from the downstream problem of interest. However, they struggle to retain that performance when the data characteristics changes. In this paper, we focus on continual learning, where a pre-trained transformer is updated to perform well on new data, while retaining its performance on data it was previously trained on. Earlier works have tackled this primarily through methods inspired from prompt tuning. We question this choice, and investigate the applicability of Low Rank Adaptation (LoRA) to continual learning. On a range of domain-incremental learning benchmarks, our LoRA-based solution, CoLoR, yields state-of-the-art performance, while still being as parameter efficient as the prompt tuning based methods.

arxiv情報

著者 Martin Wistuba,Prabhu Teja Sivaprasad,Lukas Balles,Giovanni Zappella
発行日 2023-11-29 12:53:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク