Synthetic Data Generation in Low-Resource Settings via Fine-Tuning of Large Language Models

要約

大規模言語モデル (LLM) のコンテキスト内学習機能により、ラベル付きの例が比較的少ない新しい下流タスクに一般化できます。
ただし、導入するには膨大な計算リソースが必要です。
あるいは、十分なラベル付きサンプルを使用して微調整すれば、より小さなモデルでも特定のタスクを解決できます。
ただし、これらの例は入手するのに高価です。
両方の長所を追求するため、私たちは、より小さなモデルの下流のパフォーマンスを向上させるために、微調整された教師 LLM を介した微調整トレーニング データの合成データ生成を研究しています。
4 つのテキスト分類タスクと 2 つのテキスト生成タスクでは、データ生成とアノテーションの両方がそれぞれの下流モデルのパフォーマンスを劇的に向上させ、場合によっては元のトレーニング データセットのごく一部しか必要としないことがわかりました。

要約(オリジナル)

The in-context learning ability of large language models (LLMs) enables them to generalize to novel downstream tasks with relatively few labeled examples. However, they require enormous computational resources to be deployed. Alternatively, smaller models can solve specific tasks if fine-tuned with enough labeled examples. These examples, however, are expensive to obtain. In pursuit of the best of both worlds, we study synthetic data generation of fine-tuning training data via fine-tuned teacher LLMs to improve the downstream performance of much smaller models. In four text classification and two text generation tasks, we find that both data generation and annotation dramatically improve the respective downstream model’s performance, occasionally necessitating only a minor fraction of the original training dataset.

arxiv情報

著者 Jean Kaddour,Qi Liu
発行日 2024-01-08 13:09:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク