Self-supervised Meta-Prompt Learning with Meta-Gradient Regularization for Few-shot Generalization

要約

プロンプト チューニングはパラメーター効率の高い方法であり、ソフト プロンプトを学習し、凍結された言語モデルを調整して、特定のダウンストリーム タスクを実行します。
効果的ではありますが、一方で少数ショット設定でのプロンプト チューニングは、ソフト プロンプトの適切な初期化に大きく依存しています。
一方で、オーバーフィッティングが発生しやすくなります。
既存の作業では、事前トレーニングまたは教師付きメタ学習を活用してソフト プロンプトを初期化しますが、目に見えないダウンストリーム タスクにデータ効率的に一般化することはできません。
上記の問題に対処するために、この論文では、少数ショットの一般化のためのメタ勾配正則化 (SUPMER) を使用した、新しい自己管理型メタプロンプト学習フレームワークを提案します。
最初に、さまざまなタスク形式の一連の自己教師付きアンカー メタ トレーニング タスクを設計し、カリキュラム ベースのタスク拡張でタスクの分散をさらに充実させます。
次に、新しいメタ勾配正則化法がメタプロンプト学習に統合されます。
数ショット学習中に生の勾配をドメイン一般化可能な方向に変換することをメタ学習するため、オーバーフィッティングの問題が軽減されます。
広範な実験により、SUPMER はさまざまな少数ショットのダウンストリーム タスクでより優れたパフォーマンスを達成し、より強力なドメイン一般化機能も示すことが示されています。

要約(オリジナル)

Prompt tuning is a parameter-efficient method, which learns soft prompts and conditions frozen language models to perform specific downstream tasks. Though effective, prompt tuning under few-shot settings on the one hand heavily relies on a good initialization of soft prompts. On the other hand, it can easily result in overfitting. Existing works leverage pre-training or supervised meta-learning to initialize soft prompts but they cannot data-efficiently generalize to unseen downstream tasks. To address the above problems, this paper proposes a novel Self-sUpervised meta-Prompt learning framework with meta-gradient Regularization for few-shot generalization (SUPMER). We first design a set of self-supervised anchor meta-training tasks with different task formats and further enrich the task distribution with curriculum-based task augmentation. Then a novel meta-gradient regularization method is integrated into meta-prompt learning. It meta-learns to transform the raw gradients during few-shot learning into a domain-generalizable direction, thus alleviating the problem of overfitting. Extensive experiments show that SUPMER achieves better performance for different few-shot downstream tasks, and also exhibits a stronger domain generalization ability.

arxiv情報

著者 Kaihang Pan,Juncheng Li,Hongye Song,Jun Lin,Xiaozhong Liu,Siliang Tang
発行日 2023-03-22 05:04:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク