A Comparative Study between Full-Parameter and LoRA-based Fine-Tuning on Chinese Instruction Data for Instruction Following Large Language Model

要約

タイトル:大規模言語モデルにおいて中国語の指示データを用いたフルパラメータとLoRAベースの微調整比較

要約:

– 大規模言語モデルの指示調整は、自然言語処理の分野において重要な研究領域である。
– コストやリソースの制限により、LoRAなどのパラメータ効率の良いチューニング技術が使用され、従来のフルパラメータチューニングと比較して有望な結果が得られている。
– 本研究では、ベースモデルにLLaMAを使用し、フルパラメータチューニングとLoRAベースのチューニング方法の実験比較を行った。
– 実験結果は、モデルの選択、トレーニングデータセットのスケール、学習可能なパラメータの量、およびモデルトレーニングコストが重要な要因であることを示している。
– 本論文の実験結論が、特に中国語の分野において大規模言語モデルのトレーニングに対するインスピレーションを提供し、トレーニングコストとモデルの性能の間のより良いトレードオフ戦略を研究者が見つけるのに役立てられることを期待している。
– 論文の結果を再現するために、データセット、モデル、およびコードが公開される予定である。

要約(オリジナル)

Recently, the instruction-tuning of large language models is a crucial area of research in the field of natural language processing. Due to resource and cost limitations, several researchers have employed parameter-efficient tuning techniques, such as LoRA, for instruction tuning, and have obtained encouraging results In comparison to full-parameter fine-tuning, LoRA-based tuning demonstrates salient benefits in terms of training costs. In this study, we undertook experimental comparisons between full-parameter fine-tuning and LoRA-based tuning methods, utilizing LLaMA as the base model. The experimental results show that the selection of the foundational model, training dataset scale, learnable parameter quantity, and model training cost are all important factors. We hope that the experimental conclusions of this paper can provide inspiration for training large language models, especially in the field of Chinese, and help researchers find a better trade-off strategy between training cost and model performance. To facilitate the reproduction of the paper’s results, the dataset, model and code will be released.

arxiv情報

著者 Xianghui Sun,Yunjie Ji,Baochang Ma,Xiangang Li
発行日 2023-04-17 09:36:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL パーマリンク