EasyInstruct: An Easy-to-use Instruction Processing Framework for Large Language Models

要約

近年、命令チューニングはますます注目を集めており、大規模言語モデル (LLM) の機能を強化するための重要な手法として浮上しています。
高品質の命令データセットを構築するために、データ量とデータ品質の間の微妙なバランスを達成することを目的として、多くの命令処理アプローチが提案されています。
それにも関わらず、さまざまな命令処理方法の間で一貫性がないため、コミュニティで利用できる標準的なオープンソースの命令処理実装フレームワークが存在せず、実践者がさらに開発し進歩することを妨げています。
命令処理の研究開発を促進するために、LLM 用の使いやすい命令処理フレームワークである EasyInstruct を紹介します。これは、命令の生成、選択、プロンプトをモジュール化し、それらの組み合わせや相互作用も考慮しています。
EasyInstruct は https://github.com/zjunlp/EasyInstruct で公開され、積極的に保守されています。また、クイックスタート用の実行中のデモ アプリも https://huggingface.co/spaces/zjunlp/EasyInstruct で提供されており、中心となる広範な研究が求められています。
指示データについて。

要約(オリジナル)

In recent years, instruction tuning has gained increasing attention and emerged as a crucial technique to enhance the capabilities of Large Language Models (LLMs). To construct high-quality instruction datasets, many instruction processing approaches have been proposed, aiming to achieve a delicate balance between data quantity and data quality. Nevertheless, due to inconsistencies that persist among various instruction processing methods, there is no standard open-source instruction processing implementation framework available for the community, which hinders practitioners from further developing and advancing. To facilitate instruction processing research and development, we present EasyInstruct, an easy-to-use instruction processing framework for LLMs, which modularizes instruction generation, selection, and prompting, while also considering their combination and interaction. EasyInstruct is publicly released and actively maintained at https://github.com/zjunlp/EasyInstruct, along with a running demo App at https://huggingface.co/spaces/zjunlp/EasyInstruct for quick-start, calling for broader research centered on instruction data.

arxiv情報

著者 Yixin Ou,Ningyu Zhang,Honghao Gui,Ziwen Xu,Shuofei Qiao,Yida Xue,Runnan Fang,Kangwei Liu,Lei Li,Zhen Bi,Guozhou Zheng,Huajun Chen
発行日 2024-02-06 02:51:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.HC, cs.IR, cs.LG パーマリンク