要約
インストラクションのファインチューニングは、大規模言語モデル(LLM)を活用してタスクのパフォーマンスを向上させる上で極めて重要な進歩である。しかしながら、インストラクションデータセットのアノテーションは、従来、手作業によるアノテーションや、プロプライエタリなLLMの高価なAPI呼び出しに頼ることが多く、高価で手間のかかるものでした。このような課題を解決するために、既存のアノテーションデータを必要とせずにアノテーションプロセスに革命をもたらす、完全に自律的なオープンソースフレームワークであるFANNOを紹介する。FANNOは、Mistral-7b-instructモデルを利用し、ドキュメントの事前スクリーニング、インストラクション生成、レスポンス生成を含む構造化されたプロセスを通じて、多様で高品質なデータセットを効率的に生成する。Open LLM LeaderboardとAlpacaEvalベンチマークでの実験から、FANNOは、Alpaca-GPT4-Cleanedのような人間による注釈付きデータセットやクリーニングされたデータセットに匹敵する、多様性と複雑性を備えた高品質なデータを無料で生成できることが示された。
要約(オリジナル)
Instruction fine-tuning stands as a crucial advancement in leveraging large language models (LLMs) for enhanced task performance. However, the annotation of instruction datasets has traditionally been expensive and laborious, often relying on manual annotations or costly API calls of proprietary LLMs. To address these challenges, we introduce FANNO, a fully autonomous, open-sourced framework that revolutionizes the annotation process without the need for pre-existing annotated data. Utilizing a Mistral-7b-instruct model, FANNO efficiently produces diverse and high-quality datasets through a structured process involving document pre-screening, instruction generation, and response generation. Experiments on Open LLM Leaderboard and AlpacaEval benchmark show that the FANNO can generate high-quality data with diversity and complexity for free, comparable to human-annotated or cleaned datasets like Alpaca-GPT4-Cleaned.
arxiv情報
著者 | He Zhu,Junyou Su,Tianle Lun,Yicheng Tao,Wenjia Zhang,Zipei Fan,Guanhua Chen |
発行日 | 2024-08-02 15:21:20+00:00 |
arxivサイト | arxiv_id(pdf) |