Tuning Language Models as Training Data Generators for Augmentation-Enhanced Few-Shot Learning

要約

最近の研究により、事前学習済み言語モデル(PLM)の興味深い数発学習能力が明らかになってきた:PLMは、プロンプトと呼ばれる少量のラベル付きデータで微調整することで、タスク固有の注釈を必要とせず、新しいタスクに素早く適応することができます。PLMは、タスクに特化した豊富なアノテーションを必要とせず、少ない学習データから学習することで、新しいタスクに素早く適応することができます。本研究では、PLMを用いた少数点学習について、異なる観点から研究する:まず、自己回帰型PLMを数発のサンプルに対して調整し、それを生成器として用いて、元の訓練セットを補う大量の新規訓練サンプルを合成する。生成器がラベルを識別できるサンプルを生成するよう促すため、各トークンの重みが識別メタ学習目的に基づいて自動的に調整される加重最尤法で訓練する。そして、分類PLMは、より良い一般化と安定性のために、正則化によって、少数撮影サンプルと合成サンプルの両方で微調整することができます。我々のアプローチFewGenは、GLUEベンチマークの7つの分類タスクにおいて、既存の少数ショット学習法よりも全体的に優れた結果を達成し、オーグメンテーションなしの方法を平均5ポイント以上改善し、オーグメンテーションの方法を平均3ポイント以上上回った。

要約(オリジナル)

Recent studies have revealed the intriguing few-shot learning ability of pretrained language models (PLMs): They can quickly adapt to a new task when fine-tuned on a small amount of labeled data formulated as prompts, without requiring abundant task-specific annotations. Despite their promising performance, most existing few-shot approaches that only learn from the small training set still underperform fully supervised training by nontrivial margins. In this work, we study few-shot learning with PLMs from a different perspective: We first tune an autoregressive PLM on the few-shot samples and then use it as a generator to synthesize a large amount of novel training samples which augment the original training set. To encourage the generator to produce label-discriminative samples, we train it via weighted maximum likelihood where the weight of each token is automatically adjusted based on a discriminative meta-learning objective. A classification PLM can then be fine-tuned on both the few-shot and the synthetic samples with regularization for better generalization and stability. Our approach FewGen achieves an overall better result across seven classification tasks of the GLUE benchmark than existing few-shot learning methods, improving no-augmentation methods by 5+ average points, and outperforming augmentation methods by 3+ average points.

arxiv情報

著者 Yu Meng,Martin Michalski,Jiaxin Huang,Yu Zhang,Tarek Abdelzaher,Jiawei Han
発行日 2023-05-12 06:06:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.LG パーマリンク