要約
大規模言語モデル(LLM)が命令に従う能力は、実世界のアプリケーションにとって極めて重要である。最近の進歩にもかかわらず、いくつかの研究では、LLMが困難な命令、特に複雑な制約を含む命令に直面したときに苦戦することが強調されており、様々なタスクにおけるLLMの有効性を妨げている。この課題に対処するため、我々は、複雑な制約を含むマルチレベル命令にLLMが追従できるように設計された、新しい命令チューニングデータセットであるConiferを紹介する。GPT-4を利用し、高品質を保証するためにLLM主導の一連の洗練プロセスによってデータセットをキュレーションする。また、簡単なものから難しいものへと段階的に学習し、プロセスのフィードバックから学習することを重視した漸進的学習スキームを提案する。Coniferを用いて学習したモデルは、特に複雑な制約を持つ命令に対して、命令追従能力の顕著な向上を示す。いくつかの命令追従ベンチマークにおいて、我々の7Bモデルは最先端のオープンソースの7Bモデルを凌駕し、ある指標においては10倍以上のモデルの性能を上回ることさえある。すべてのコードとConiferデータセットはhttps://www.github.com/ConiferLM/Conifer。
要約(オリジナル)
The ability of large language models (LLMs) to follow instructions is crucial to real-world applications. Despite recent advances, several studies have highlighted that LLMs struggle when faced with challenging instructions, especially those that include complex constraints, hindering their effectiveness in various tasks. To address this challenge, we introduce Conifer, a novel instruction tuning dataset, designed to enhance LLMs to follow multi-level instructions with complex constraints. Utilizing GPT-4, we curate the dataset by a series of LLM-driven refinement processes to ensure high quality. We also propose a progressive learning scheme that emphasizes an easy-to-hard progression, and learning from process feedback. Models trained with Conifer exhibit remarkable improvements in instruction-following abilities, especially for instructions with complex constraints. On several instruction-following benchmarks, our 7B model outperforms the state-of-the-art open-source 7B models, even exceeds the performance of models 10 times larger on certain metrics. All the code and Conifer dataset are available at https://www.github.com/ConiferLM/Conifer.
arxiv情報
| 著者 | Haoran Sun,Lixin Liu,Junjie Li,Fengyu Wang,Baohua Dong,Ran Lin,Ruohui Huang |
| 発行日 | 2024-04-03 15:55:39+00:00 |
| arxivサイト | arxiv_id(pdf) |