Instruction Tuning for Large Language Models: A Survey

要約

この論文では、大規模言語モデル (LLM) の機能と制御性を強化するための重要な技術である命令チューニング (IT) の急速に進歩している分野における研究成果を概観します。
命令チューニングとは、\textsc{(命令, 出力)} のペアで構成されるデータセット上で LLM を教師付きでさらにトレーニングするプロセスを指します。これにより、LLM の次の単語の予測目標とユーザーの次の単語予測の目標との間のギャップが埋められます。
LLM は人間の指示に従います。
この作業では、IT の一般的な方法論、IT データセットの構築、IT モデルのトレーニング、さまざまなモダリティ、ドメイン、アプリケーションへの適用などの文献を体系的にレビューし、影響を与える側面についての分析を行います。
IT の成果 (例: 命令出力の生成、命令データセットのサイズなど)。
また、既存の戦略の現在の欠陥を指摘する取り組みとともに、IT に対する批判とともに IT の潜在的な落とし穴を検討し、実りある研究への道をいくつか提案します。

要約(オリジナル)

This paper surveys research works in the quickly advancing field of instruction tuning (IT), a crucial technique to enhance the capabilities and controllability of large language models (LLMs). Instruction tuning refers to the process of further training LLMs on a dataset consisting of \textsc{(instruction, output)} pairs in a supervised fashion, which bridges the gap between the next-word prediction objective of LLMs and the users’ objective of having LLMs adhere to human instructions. In this work, we make a systematic review of the literature, including the general methodology of IT, the construction of IT datasets, the training of IT models, and applications to different modalities, domains and applications, along with an analysis on aspects that influence the outcome of IT (e.g., generation of instruction outputs, size of the instruction dataset, etc). We also review the potential pitfalls of IT along with criticism against it, along with efforts pointing out current deficiencies of existing strategies and suggest some avenues for fruitful research.

arxiv情報

著者 Shengyu Zhang,Linfeng Dong,Xiaoya Li,Sen Zhang,Xiaofei Sun,Shuhe Wang,Jiwei Li,Runyi Hu,Tianwei Zhang,Fei Wu,Guoyin Wang
発行日 2023-09-21 16:54:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク