要約
タイトル:Few-shot言語モデルfine-tuningのためのCold-Startデータ選択:Prompt-Based Uncertainty Propagation Approach
要約:大規模言語モデルはremarkableなfew-shotパフォーマンスを示しましたが、そのパフォーマンスはfew-shot instancesの選択に感度があることがあります。我々はPATRONという新しい方法を提案し、プリトレーニングされた言語モデルのfine-tuningにおいて、Cold-startシナリオ(初期のラベル付きデータがない)の下で、prompt-based uncertainty estimationを使用してデータ選択を行います。PATRONでは、(1) データポイントの重要性を推定するためのPrompt-Based Uncertainty Propagation Approachを設計し、(2) アノテーションをクエリする際にサンプルの多様性を促進するPartition-then-Rewrite(PTR)戦略を設計します。6つのテキスト分類データセットでの実験では、PATRONは最も強力なcold-startデータ選択ベースラインよりも最大6.9%のパフォーマンスを発揮しました。また、128のラベルのみで、PATRONはバニラfine-tuningおよびprompt-based learningに基づく完全に監視されたパフォーマンスの91.0%および92.1%を達成しました。PATRONの実装は\ url {https://github.com/yueyu1030/Patron}で利用可能です。
– 大規模言語モデルはremarkableなfew-shotパフォーマンスを示すが、そのパフォーマンスはfew-shot instancesの選択に感度があることがある。
– PATRONは、cold-startシナリオ(初期のラベル付きデータがない)の下で、prompt-based uncertainty estimationを使用してデータ選択を行う新しい方法を提案する。
– PATRONでは、(1) データポイントの重要性を推定するためのPrompt-Based Uncertainty Propagation Approachを設計し、(2) アノテーションをクエリする際にサンプルの多様性を促進するPartition-then-Rewrite(PTR)戦略を設計する。
– PATRONは、6つのテキスト分類データセットでの実験で最も強力なcold-startデータ選択ベースラインよりも最大6.9%のパフォーマンスを発揮する。
– 128のラベルのみで、PATRONはバニラfine-tuningおよびprompt-based learningに基づく完全に監視されたパフォーマンスの91.0%および92.1%を達成する。
– PATRONの実装は\ url {https://github.com/yueyu1030/Patron}で利用可能である。
要約(オリジナル)
Large Language Models have demonstrated remarkable few-shot performance, but the performance can be sensitive to the selection of few-shot instances. We propose PATRON, a new method that uses prompt-based uncertainty estimation for data selection for pre-trained language model fine-tuning under cold-start scenarios, i.e., no initial labeled data are available. In PATRON, we design (1) a prompt-based uncertainty propagation approach to estimate the importance of data points and (2) a partition-then-rewrite (PTR) strategy to promote sample diversity when querying for annotations. Experiments on six text classification datasets show that PATRON outperforms the strongest cold-start data selection baselines by up to 6.9%. Besides, with 128 labels only, PATRON achieves 91.0% and 92.1% of the fully supervised performance based on vanilla fine-tuning and prompt-based learning respectively. Our implementation of PATRON is available at \url{https://github.com/yueyu1030/Patron}.
arxiv情報
著者 | Yue Yu,Rongzhi Zhang,Ran Xu,Jieyu Zhang,Jiaming Shen,Chao Zhang |
発行日 | 2023-05-08 20:42:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI