Enabling Natural Zero-Shot Prompting on Encoder Models via Statement-Tuning

要約

大規模言語モデル (LLM) は、ゼロショットおよび少数ショットのシナリオで優れた機能を発揮しますが、多くの場合、計算上法外なサイズが必要になります。
逆に、BERT や RoBERTa などの小規模なマスク言語モデル (MLM) は、微調整を通じて最先端の結果を実現しますが、アーキテクチャ上の制約により、少数ショット設定やゼロショット設定に拡張するのに苦労します。
そこで、我々は、識別タスクを有限ステートメントのセットとしてモデル化し、潜在的なステートメントを識別してラベルを決定するようにエンコーダー モデルをトレーニングする手法であるステートメント チューニングを提案します。
複数のタスクに対してステートメント チューニングを実行して、タスク間の一般化を可能にします。
実験結果は、ステートメント チューニングが、パラメータが大幅に少ない最先端の LLM と比較して、競争力のあるパフォーマンスを実現することを示しています。
さらに、この研究では、いくつかの設計の選択が少数ショットおよびゼロショットの汎化に及ぼす影響を調査し、ステートメントのチューニングが適度なトレーニング データで十分なパフォーマンスを達成できることと、目に見えないタスクの汎化性に対するタスクとステートメントの多様性の利点を明らかにしました。

要約(オリジナル)

While Large Language Models (LLMs) exhibit remarkable capabilities in zero-shot and few-shot scenarios, they often require computationally prohibitive sizes. Conversely, smaller Masked Language Models (MLMs) like BERT and RoBERTa achieve state-of-the-art results through fine-tuning but struggle with extending to few-shot and zero-shot settings due to their architectural constraints. Hence, we propose Statement-Tuning, a technique that models discriminative tasks as a set of finite statements and trains an Encoder model to discriminate between the potential statements to determine the label. We do Statement-Tuning on multiple tasks to enable cross-task generalization. Experimental results demonstrate that Statement Tuning achieves competitive performance compared to state-of-the-art LLMs with significantly fewer parameters. Moreover, the study investigates the impact of several design choices on few-shot and zero-shot generalization, revealing that Statement Tuning can achieve sufficient performance with modest training data and benefits from task and statement diversity for unseen task generalizability.

arxiv情報

著者 Ahmed Elshabrawy,Yongix Huang,Iryna Gurevych,Alham Fikri Aji
発行日 2024-04-19 14:05:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク