要約
大規模言語モデル(LLM)は、出力が自然言語のパターンに従っている場合、流暢なテキストを効果的に生成します。しかし、構造化された予測タスクでは、出力形式が限られたオントロジーに限定されるため、非常に大きなモデルであっても、そのような制限を念頭に置いてトレーニングされたことがないため、苦戦を強いられる。LLMを直接予測に使用することの難しさは、ドメインシフトやリソースの制限により一般的に発生する数回の学習シナリオで悪化する。我々は、LLMを直接予測ではなく、データ増強のためのツールとして活用することで、この問題を解決する。提案するソフトプロンプトの混合物(MSP)は、制御された方法でデータを生成するためのパラメータ効率の良い手順として機能します。さらに、合成されたデータの品質を向上させるために、ノイズ除去メカニズムが適用される。自動計測の結果、本手法はラベルのセマンティクスを保持しながら、多様で自然なテキストを生成できることが示された。さらに、MSPは、強力なベースラインと比較した場合、3つのベンチマークで最先端の結果を達成した。本手法は、複雑な予測タスクにLLMを適用するための、データ中心の代替アプローチを提供するものである。
要約(オリジナル)
Large language models (LLMs) effectively generate fluent text when the target output follows natural language patterns. However, structured prediction tasks confine the output format to a limited ontology, causing even very large models to struggle since they were never trained with such restrictions in mind. The difficulty of using LLMs for direct prediction is exacerbated in few-shot learning scenarios, which commonly arise due to domain shift and resource limitations. We flip the problem on its head by leveraging the LLM as a tool for data augmentation rather than direct prediction. Our proposed Mixture of Soft Prompts (MSP) serves as a parameter-efficient procedure for generating data in a controlled manner. Denoising mechanisms are further applied to improve the quality of synthesized data. Automatic metrics show our method is capable of producing diverse and natural text, while preserving label semantics. Moreover, MSP achieves state-of-the-art results on three benchmarks when compared against strong baselines. Our method offers an alternate data-centric approach for applying LLMs to complex prediction tasks.
arxiv情報
著者 | Derek Chen,Celine Lee,Yunan Lu,Domenic Rosati,Zhou Yu |
発行日 | 2023-03-02 21:13:56+00:00 |
arxivサイト | arxiv_id(pdf) |