Meta-augmented Prompt Tuning for Better Few-shot Learning

要約

プロンプト チューニングは、すべての PLM パラメーターをフリーズし、ソフト プロンプトと呼ばれるいくつかの追加の調整可能なトークンのみを入力テキストの先頭に追加する、パラメーター効率の高い方法です。
ただし、ソフト プロンプトはより良い初期化に大きく依存しており、少数ショットの設定では簡単に過剰適合する可能性があり、プロンプト チューニングのパフォーマンスが微調整よりもはるかに悪くなります。
上記の問題に対処するために、このペーパーでは、少数ショットの一般化のための MEtagradient 正則化 (SUMMER) を使用した、新しい自己管理型メタプロンプト学習フレームワークを提案します。
自己管理型メタ学習を活用してソフトプロンプトをより適切に初期化し、カリキュラムベースのタスク拡張をさらに提案して、メタタスク分布を充実させます。
さらに、メタプロンプト学習フレームワークには、新しいメタ勾配正則化手法が統合されています。メタプロンプト学習フレームワークは、少数ショット学習中に生の勾配をドメイン一般化可能な方向に変換することをメタ学習し、オーバーフィッティングの問題を軽減します。
広範な実験により、SUMMER はさまざまな少数ショットのダウンストリーム タスクでより優れたパフォーマンスを達成し、より強力なドメイン一般化機能も示すことが示されています。

要約(オリジナル)

Prompt tuning is a parameter-efficient method, which freezes all PLM parameters and only prepends some additional tunable tokens called soft prompts to the input text. However, soft prompts heavily rely on a better initialization and may easily result in overfitting under few-shot settings, which causes prompt-tuning performing much worse than fine-tuning. To address the above issues, this paper proposes a novel Self-sUpervised Meta-prompt learning framework with MEtagradient Regularization for few shot generalization (SUMMER). We leverage self-supervised meta-learning to better initialize soft prompts and curriculum-based task augmentation is further proposed to enrich the meta-task distribution. Besides, a novel meta-gradient regularization method is integrated into the meta-prompt learning framework, which meta-learns to transform the raw gradient during few-shot learning into a domain-generalizable direction, thus alleviating the problem of overfitting. Extensive experiments show that SUMMER achieves better performance for different few-shot downstream tasks, and also exhibits a stronger domain generalization ability.

arxiv情報

著者 Kaihang Pan,Juncheng Li,Hongye Song,Jun Lin,Xiaozhong Liu,Siliang Tang
発行日 2023-03-28 13:56:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク