Multi-Task Instruction Tuning of LLaMa for Specific Scenarios: A Preliminary Study on Writing Assistance

要約

ChatGPT と GPT-4 は、さまざまなタスクを処理できる驚異的な少数ショット (またはゼロショット) 能力により、学界と産業界の両方から大きな関心を集めています。
最近の研究では、最近提案された LLM、LLaMa が、いくつかの命令駆動データで微調整された後、広範囲のタスクに対処する優れた機能を発揮することが示されています。
ただし、LLM のゼロショット パフォーマンスは、特定のシナリオに合わせて微調整されたモデルのパフォーマンスを常に上回るわけではありません。
特定のシナリオに対して LLM の機能をさらに強化できるかどうかを調べるために、7 つの書き込みタスクを含む書き込み支援シナリオをテストベッドとして選択します。
これらのタスクのトレーニング データを収集し、命令に従う形式で再構成し、その後、命令チューニングを通じて LLaMa を改良します。
実験結果は、命令データの書き込みに関して LLaMa を継続的に微調整することにより、タスクの書き込み能力が大幅に向上することを示しています。
また、特定のシナリオに合わせて LLaMa を効果的に微調整する将来の作業のための洞察を提供するために、さらに多くの実験と分析を実施します。

要約(オリジナル)

ChatGPT and GPT-4 have attracted substantial interest from both academic and industrial circles, owing to their remarkable few-shot (or even zero-shot) ability to handle various tasks. Recent work shows that, after being fine-tuned with a few sets of instruction-driven data, the recently proposed LLM, LLaMa, exhibits an impressive capability to address a broad range of tasks. However, the zero-shot performance of LLMs does not consistently outperform that of models fined-tuned for specific scenarios. To explore whether the capabilities of LLMs can be further enhanced for specific scenarios, we choose the writing-assistance scenario as the testbed, including seven writing tasks. We collect training data for these tasks, reframe them in an instruction-following format, and subsequently refine LLaMa via instruction tuning. Experimental results show that continually fine-tuning LLaMa on writing instruction data significantly improves its ability on writing tasks. We also conduct more experiments and analyses to offer insights for future work on effectively fine-tuning LLaMa for specific scenarios.

arxiv情報

著者 Yue Zhang,Leyang Cui,Deng Cai,Xinting Huang,Tao Fang,Wei Bi
発行日 2023-05-22 16:56:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク