EasyInstruct: An Easy-to-use Instruction Processing Framework for Large Language Models

要約

近年、大規模言語モデル(Large Language Models: LLM)の能力を向上させるために、命令チューニングが重要な技術として注目を集めている。高品質の命令データセットを構築するために、データ量とデータの質の微妙なバランスを実現することを目的とした多くの命令処理アプローチが提案されている。しかしながら、様々なインストラクション処理手法の間に矛盾が存在するため、コミュニティが利用可能な標準的なオープンソースのインストラクション処理実装フレームワークが存在せず、インストラクション処理研究者のさらなる開発・進歩の妨げとなっている。インストラクション処理の研究開発を促進するために、我々は、インストラクションの生成、選択、プロンプトをモジュール化し、それらの組み合わせや相互作用も考慮した、LLMのための使いやすいインストラクション処理フレームワークであるEasyInstructを発表する。EasyInstructは、https://github.com/zjunlp/EasyInstruct で公開され、活発にメンテナンスされている。また、https://huggingface.co/spaces/zjunlp/EasyInstruct では、クイックスタートのためのデモアプリが公開されており、命令データを中心とした幅広い研究を呼びかけている。

要約(オリジナル)

In recent years, instruction tuning has gained increasing attention and emerged as a crucial technique to enhance the capabilities of Large Language Models (LLMs). To construct high-quality instruction datasets, many instruction processing approaches have been proposed, aiming to achieve a delicate balance between data quantity and data quality. Nevertheless, due to inconsistencies that persist among various instruction processing methods, there is no standard open-source instruction processing implementation framework available for the community, which hinders practitioners from further developing and advancing. To facilitate instruction processing research and development, we present EasyInstruct, an easy-to-use instruction processing framework for LLMs, which modularizes instruction generation, selection, and prompting, while also considering their combination and interaction. EasyInstruct is publicly released and actively maintained at https://github.com/zjunlp/EasyInstruct, along with a running demo App at https://huggingface.co/spaces/zjunlp/EasyInstruct for quick-start, calling for broader research centered on instruction data.

arxiv情報

著者 Yixin Ou,Ningyu Zhang,Honghao Gui,Ziwen Xu,Shuofei Qiao,Zhen Bi,Huajun Chen
発行日 2024-02-05 14:33:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.HC, cs.IR, cs.LG パーマリンク