要約
事前トレーニングされた言語モデルは、ダウンストリーム アプリケーションのサポートを向上させるために継続的に微調整されます。
ただし、この操作により、対象のドメインを超えた一般的なタスクでパフォーマンスが大幅に低下する可能性があります。
この問題を克服するために、微調整されたモデルが一般的な観点から回復力を維持できるようにする新しい方法を提案します。
私たちの方法は、モデルマージ (つまり、LM-Cocktail) の形式で実行され、微調整された言語モデルが、加重平均を通じて事前トレーニングされたベースモデルまたは他のドメインのピアモデルとマージされます。
シンプルさにもかかわらず、LM-Cocktail は驚くほど効果的です。結果として得られるモデルは、対象領域で優れた能力を維持しながら、一般的なタスクの範囲全体で強力な経験的パフォーマンスを達成できます。
私たちは、FLAN、MMLU、MTEB などの一般的なベンチマークで LLama および BGE モデルを使用した包括的な実験を実施し、その結果によって提案手法の有効性が検証されます。
コードとチェックポイントは https://github.com/FlagOpen/FlagEmbedding で入手できます。
要約(オリジナル)
The pre-trained language models are continually fine-tuned to better support downstream applications. However, this operation may result in significant performance degeneration on general tasks beyond the targeted domain. To overcome this problem, we propose a novel method which enables the fine-tuned model to stay resilient in general perspectives. Our method is conducted in the form of model merging (namely LM-Cocktail), where the fine-tuned language model is merged with the pre-trained base model or the peer models from other domains through weighted average. Despite simplicity, LM-Cocktail is surprisingly effective: the resulted model is able to achieve a strong empirical performance in the whole scope of general tasks while preserving a superior capacity in its targeted domain. We conduct comprehensive experiments with LLama and BGE model on popular benchmarks, including FLAN, MMLU, MTEB, whose results validate the efficacy of our proposed method. The code and checkpoints are available at https://github.com/FlagOpen/FlagEmbedding.
arxiv情報
著者 | Shitao Xiao,Zheng Liu,Peitian Zhang,Xingrun Xing |
発行日 | 2023-11-22 17:14:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google