WaveCoder: Widespread And Versatile Enhanced Instruction Tuning with Refined Data Generation

要約

最近の研究では、高品質の命令データセットで微調整された後、結果として得られるモデルが幅広いタスクに対処する優れた機能を獲得できることが実証されています。
しかし、既存の命令データ生成方法では重複データが生成されることが多く、データ品質の制御が十分ではありません。
本稿では、命令データを 4 つのコード関連タスクに分類することで命令チューニングの一般化を拡張し、オープンソース コードから多様で高品質な命令データを生成するための LLM ベースの Generator-Discriminator データ処理フレームワークを提案します。
そこで、4 つの汎用コード関連タスクにわたる 20,000 の命令インスタンスで構成されるデータセットである CodeOcean を紹介します。これは、命令チューニングの有効性を高め、微調整されたモデルの一般化能力を向上させることを目的としています。
続いて、広範囲かつ多用途に強化された命令チューニングを備えた微調整されたコード LLM である WaveCoder を紹介します。
このモデルは、コード言語モデル (LLM) の命令チューニングを強化するために特別に設計されています。
私たちの実験では、Wavecoder モデルが、同じレベルの微調整スケールでのさまざまなコード関連タスクにわたる汎化能力の点で、他のオープンソース モデルよりも優れていることが実証されました。
さらに、Wavecoder は以前のコード生成タスクでも高い効率を示します。
したがって、この論文は命令データの生成とモデルの微調整の分野に大きく貢献し、コード関連タスクのパフォーマンスを向上させるための新しい洞察とツールを提供します。

要約(オリジナル)

Recent work demonstrates that, after being fine-tuned on a high-quality instruction dataset, the resulting model can obtain impressive capabilities to address a wide range of tasks. However, existing methods for instruction data generation often produce duplicate data and are not controllable enough on data quality. In this paper, we extend the generalization of instruction tuning by classifying the instruction data to 4 code-related tasks and propose a LLM-based Generator-Discriminator data process framework to generate diverse, high-quality instruction data from open source code. Hence, we introduce CodeOcean, a dataset comprising 20,000 instruction instances across 4 universal code-related tasks,which is aimed at augmenting the effectiveness of instruction tuning and improving the generalization ability of fine-tuned model. Subsequently, we present WaveCoder, a fine-tuned Code LLM with Widespread And Versatile Enhanced instruction tuning. This model is specifically designed for enhancing instruction tuning of Code Language Models (LLMs). Our experiments demonstrate that Wavecoder models outperform other open-source models in terms of generalization ability across different code-related tasks at the same level of fine-tuning scale. Moreover, Wavecoder exhibits high efficiency in previous code generation tasks. This paper thus offers a significant contribution to the field of instruction data generation and fine-tuning models, providing new insights and tools for enhancing performance in code-related tasks.

arxiv情報

著者 Zhaojian Yu,Xin Zhang,Ning Shang,Yangyu Huang,Can Xu,Yishujie Zhao,Wenxiang Hu,Qiufeng Yin
発行日 2023-12-26 13:51:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.SE パーマリンク