Amuro and Char: Analyzing the Relationship between Pre-Training and Fine-Tuning of Large Language Models

要約

大規模な言語モデルの開発は、プリトレイントレインアライインパラダイムの形成につながります。このパラダイムでは、モデルは通常、大きなテキストコーパスで事前に訓練され、モデルを人間の好みまたは下流タスクに合わせてチューニング段階を導きます。

この作業では、複数の中間訓練を受けたモデルチェックポイントを微調整することにより、トレーニング前と微調整の関係を調査します。
18のデータセットでの結果は、i)継続的なトレーニングがモデルを微調整後に発表する潜在的な方法でモデルを改善することを示唆しています。
ii)余分な微調整により、モデルが能力を実証していないデータセットは、トレーニング前の段階でモデルがうまく機能するものよりもはるかに多く獲得します。
iii)モデルは監視された微調整を通じて大幅に利益をもたらしますが、以前に知られているドメインの知識と微調整中に見られないタスクを忘れるかもしれません。
iv)このモデルは、監視された微調整後の評価プロンプトに対する高い感度に似ていますが、この感度はより多くのトレーニングによって緩和される可能性があります。

要約(オリジナル)

The development of large language models leads to the formation of a pre-train-then-align paradigm, in which the model is typically pre-trained on a large text corpus and undergoes a tuning stage to align the model with human preference or downstream tasks. In this work, we investigate the relationship between pre-training and fine-tuning by fine-tuning multiple intermediate pre-trained model checkpoints. Our results on 18 datasets suggest that i) continual pre-training improves the model in a latent way that unveils after fine-tuning; ii) with extra fine-tuning, the datasets that the model does not demonstrate capability gain much more than those that the model performs well during the pre-training stage; iii) although model benefits significantly through supervised fine-tuning, it may forget previously known domain knowledge and the tasks that are not seen during fine-tuning; iv) the model resembles high sensitivity to evaluation prompts after supervised fine-tuning, but this sensitivity can be alleviated by more pre-training.

arxiv情報

著者 Kaiser Sun,Mark Dredze
発行日 2025-02-11 16:57:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク