Multitask Prompt Tuning Enables Parameter-Efficient Transfer Learning

要約

プロンプトチューニングは、学習したプロンプトベクトルの条件付けにより、事前に学習したモデルを各タスクに適応させるもので、大規模な言語モデルを効率的に複数のタスクに適応させる有望なアプローチとして浮上している。しかし、既存の方法では、プロンプトベクトルをゼロから学習するのが一般的であり、プロンプトベクトルが持つ豊富なタスク横断的知識をマルチタスク学習で利用する方法は明らかでなかった。我々は、マルチタスクプロンプトチューニング(MPT)を提案し、まず、複数のタスク固有のソースプロンプトから知識を抽出することにより、単一の転送可能なプロンプトを学習する。次に、この共有プロンプトに対して乗法的な低ランク更新を学習し、下流の各ターゲットタスクに効率的に適応させる。23のNLPデータセットを用いた広範な実験により、タスク固有のパラメータを0.035%しか調整しないにもかかわらず、我々の提案するアプローチが、場合によっては完全なファインチューニングベースラインを含む最先端手法を凌駕することが示された。

要約(オリジナル)

Prompt tuning, in which a base pretrained model is adapted to each task via conditioning on learned prompt vectors, has emerged as a promising approach for efficiently adapting large language models to multiple downstream tasks. However, existing methods typically learn soft prompt vectors from scratch, and it has not been clear how to exploit the rich cross-task knowledge with prompt vectors in a multitask learning setting. We propose multitask prompt tuning (MPT), which first learns a single transferable prompt by distilling knowledge from multiple task-specific source prompts. We then learn multiplicative low rank updates to this shared prompt to efficiently adapt it to each downstream target task. Extensive experiments on 23 NLP datasets demonstrate that our proposed approach outperforms the state-of-the-art methods, including the full finetuning baseline in some cases, despite only tuning 0.035% as many task-specific parameters.

arxiv情報

著者 Zhen Wang,Rameswar Panda,Leonid Karlinsky,Rogerio Feris,Huan Sun,Yoon Kim
発行日 2023-03-06 03:25:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク