要約
近年、命令チューニングはますます注目を集めており、大規模言語モデル (LLM) の機能を強化するための重要な手法として浮上しています。
高品質の命令データセットを構築するために、データ量とデータ品質の間の微妙なバランスを達成することを目的として、多くの命令処理アプローチが提案されています。
それにも関わらず、さまざまな命令処理方法の間で一貫性がないため、コミュニティで利用できる標準的なオープンソースの命令処理実装フレームワークが存在せず、実践者がさらに開発し進歩することを妨げています。
命令処理の研究開発を促進するために、LLM 用の使いやすい命令処理フレームワークである EasyInstruct を紹介します。これは、命令の生成、選択、プロンプトをモジュール化し、それらの組み合わせや相互作用も考慮しています。
EasyInstruct は、オンライン デモ アプリとクイックスタート用のデモ ビデオとともに https://github.com/zjunlp/EasyInstruct で公開され、積極的に保守されており、命令データと合成データを中心とした広範な研究が求められています。
要約(オリジナル)
In recent years, instruction tuning has gained increasing attention and emerged as a crucial technique to enhance the capabilities of Large Language Models (LLMs). To construct high-quality instruction datasets, many instruction processing approaches have been proposed, aiming to achieve a delicate balance between data quantity and data quality. Nevertheless, due to inconsistencies that persist among various instruction processing methods, there is no standard open-source instruction processing implementation framework available for the community, which hinders practitioners from further developing and advancing. To facilitate instruction processing research and development, we present EasyInstruct, an easy-to-use instruction processing framework for LLMs, which modularizes instruction generation, selection, and prompting, while also considering their combination and interaction. EasyInstruct is publicly released and actively maintained at https://github.com/zjunlp/EasyInstruct, along with an online demo app and a demo video for quick-start, calling for broader research centered on instruction data and synthetic data.
arxiv情報
著者 | Yixin Ou,Ningyu Zhang,Honghao Gui,Ziwen Xu,Shuofei Qiao,Yida Xue,Runnan Fang,Kangwei Liu,Lei Li,Zhen Bi,Guozhou Zheng,Huajun Chen |
発行日 | 2024-03-21 15:33:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google