LongForm: Optimizing Instruction Tuning for Long Text Generation with Corpus Extraction

要約

タイトル: LongForm:コーパス抽出を用いた長いテキスト生成のための指示調整の最適化

要約:

– 指示調整は、言語モデルがより効果的に一般化し、ユーザーの意図によりよく従うようにすることができる。
– しかし、指示データを取得することはコストと課題がある。
– LongFormデータセットを紹介する。これは、英語のコーパス例を拡張された指示で活用することによって作成されたものである。
– 既存のコーパス(C4、Wikipediaなど)から人間が書いた多様なドキュメントを選択し、LLMsを介してドキュメントに対する指示を生成する。
– このアプローチはより安価でクリーンな指示調整データセットを提供し、長いテキスト生成に適している。
– T5、OPT、およびLLaMAモデルをLongFormデータセットで微調整し、ストーリーやレシピの生成、長文の質問に対する回答などのさまざまなタスクで、指示調整を行わない10倍大きな言語モデルよりも優れた性能を発揮する。
– また、LongFormモデルは、FLAN-T5やAlpacaなどの以前の指示調整モデルを大きく上回る。
– 最後に、私たちのモデルは、多言語の指示を効果的に認識して回答することができ、ニュースの生成について示した。
– このデータとモデルは、https://github.com/akoksal/LongFormで公開されている。

要約(オリジナル)

Instruction tuning enables language models to generalize more effectively and better follow user intent. However, obtaining instruction data can be costly and challenging. Prior works employ methods such as expensive human annotation, crowd-sourced datasets with alignment issues, or generating noisy examples via LLMs. We introduce the LongForm dataset, which is created by leveraging English corpus examples with augmented instructions. We select a diverse set of human-written documents from existing corpora such as C4 and Wikipedia and generate instructions for the given documents via LLMs. This approach provides a cheaper and cleaner instruction-tuning dataset and one suitable for long text generation. We finetune T5, OPT, and LLaMA models on our dataset and show that even smaller LongForm models have good generalization capabilities for text generation. Our models outperform 10x larger language models without instruction tuning on various tasks such as story/recipe generation and long-form question answering. Moreover, LongForm models outperform prior instruction-tuned models such as FLAN-T5 and Alpaca by a large margin. Finally, our models can effectively follow and answer multilingual instructions; we demonstrate this for news generation. We publicly release our data and models: https://github.com/akoksal/LongForm.

arxiv情報

著者 Abdullatif Köksal,Timo Schick,Anna Korhonen,Hinrich Schütze
発行日 2023-04-17 17:36:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク