要約
メタトレーニングは、タスクの命令と入力インスタンスを考慮してターゲットラベルの尤度を最大化することで、さまざまな下流タスクの言語モデル (LM) を微調整することで、ゼロショットタスクの汎化パフォーマンスを向上させました。
しかし、メタトレーニングされた LM は、メタトレーニング中には見られない新しいラベルを含む困難なタスクに一般化するのに依然として苦労しています。
この論文では、入力インスタンスとラベルが与えられたタスク命令を生成するように LM をトレーニングするメタトレーニングの代替方法である反転学習を提案します。
推論中、反転学習 (反転と呼ばれる) でトレーニングされた LM は、タスク命令を生成する可能性が最も高いラベル オプションを選択します。
BIG ベンチ ベンチマークの 14 のタスクにおいて、11B サイズの Flipped は、ゼロショットの T0-11B、さらには 16 倍大きい 3 ショットの GPT-3 (175B) を平均して、それぞれ 8.4% ポイントと 9.7% ポイント上回っています。
Flipped は、目に見えないラベルを持つタスクで特に大幅な改善をもたらし、T0-11B を平均 F1 スコア最大 +20% 上回りました。
これは、Flipped の強力なタスク一般化が、新しいラベルへの改善された一般化から来ていることを示しています。
コードは https://github.com/seonghyeonye/Flipped-Learning で公開しています。
要約(オリジナル)
Meta-training, which fine-tunes the language model (LM) on various downstream tasks by maximizing the likelihood of the target label given the task instruction and input instance, has improved the zero-shot task generalization performance. However, meta-trained LMs still struggle to generalize to challenging tasks containing novel labels unseen during meta-training. In this paper, we propose Flipped Learning, an alternative method of meta-training which trains the LM to generate the task instruction given the input instance and label. During inference, the LM trained with Flipped Learning, referred to as Flipped, selects the label option that is most likely to generate the task instruction. On 14 tasks of the BIG-bench benchmark, the 11B-sized Flipped outperforms zero-shot T0-11B and even a 16 times larger 3-shot GPT-3 (175B) on average by 8.4% and 9.7% points, respectively. Flipped gives particularly large improvements on tasks with unseen labels, outperforming T0-11B by up to +20% average F1 score. This indicates that the strong task generalization of Flipped comes from improved generalization to novel labels. We release our code at https://github.com/seonghyeonye/Flipped-Learning.
arxiv情報
著者 | Seonghyeon Ye,Doyoung Kim,Joel Jang,Joongbo Shin,Minjoon Seo |
発行日 | 2023-06-06 11:03:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google