要約
最新の生成大規模言語モデル (LLM) は、データ拡張タスクに応用されています。そこでは、少数のテキスト サンプルが LLM で言い換えられ、モデルの微調整に使用されます。
ただし、さまざまなプロンプト、シードデータ選択戦略、フィルタリング方法、またはモデル設定が言い換えデータ (および下流モデル) の品質にどのような影響を与えるかを評価するには、さらなる研究が必要です。
この研究では、クラウドソーシングで確立されている 3 つのテキスト多様性インセンティブ方法、つまりタブー単語、以前の外れ値ソリューションによるヒント、および以前の外れ値ソリューションの連鎖を調査します。
テキスト データセットを拡張する LLM への指示の一部としてこれらのインセンティブ手法を使用して、生成されたテキストの語彙多様性と下流モデルのパフォーマンスに対する効果を測定します。
5 つの異なる LLM と 6 つのデータセットにわたる効果を比較します。
私たちは、タブーな言葉によって多様性が最も高まる一方、以前に作成された言い換えがヒントとして使用された場合に下流モデルのパフォーマンスが最高になることを示しました。
要約(オリジナル)
The latest generative large language models (LLMs) have found their application in data augmentation tasks, where small numbers of text samples are LLM-paraphrased and then used to fine-tune the model. However, more research is needed to assess how different prompts, seed data selection strategies, filtering methods, or model settings affect the quality of paraphrased data (and downstream models). In this study, we investigate three text diversity incentive methods well established in crowdsourcing: taboo words, hints by previous outlier solutions, and chaining on previous outlier solutions. Using these incentive methods as part of instructions to LLMs augmenting text datasets, we measure their effects on generated texts’ lexical diversity and downstream model performance. We compare the effects over 5 different LLMs and 6 datasets. We show that diversity is most increased by taboo words, while downstream model performance is highest when previously created paraphrases are used as hints.
arxiv情報
著者 | Jan Cegin,Branislav Pecher,Jakub Simko,Ivan Srba,Maria Bielikova,Peter Brusilovsky |
発行日 | 2024-01-12 15:46:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google