要約
命令チューニングされた大規模言語モデル(LLM)が世界的に採用されるにつれて、多言語の命令に従う能力がますます重要になる。一つの有望なアプローチは、モデルが他の言語でファインチューニングを行うことで、ある言語で特定の機能を獲得する、クロスリンガルトランスファーである。本研究では、多言語LLMの命令チューニングにおける多言語性が、言語間の命令追従性にどのような影響を与えるかを調べる。まず、多くの言語が、単言語チューニングから他の言語へ命令追従能力を移行させることを示す。さらに、英語のチューニングセットに含まれる40の多言語例のみが、チューニング中に見た言語と見たことのない言語の両方で、多言語の命令追従性を大幅に向上させることを見出した。一般的に、多言語混合でチューニングされたモデルは、単言語でチューニングされたモデルと比較して、それらの言語の10倍少ない例で学習したにもかかわらず、いくつかの言語で同等かそれ以上の性能を示すことが観察される。最後に、命令チューニングセットの言語数を1つから2つ、3つ、4つに増やすと、言語横断的な汎化が向上することがわかった。我々の結果は、非常に小さな多言語指示応答セットだけで、大規模な多言語指示チューニングモデルを構築できることを示唆している。
要約(オリジナル)
As instruction-tuned large language models (LLMs) gain global adoption, their ability to follow instructions in multiple languages becomes increasingly crucial. One promising approach is cross-lingual transfer, where a model acquires specific functionality on some language by finetuning on another language. In this work, we investigate how multilinguality during instruction tuning of a multilingual LLM affects instruction-following across languages. We first show that many languages transfer some instruction-following capabilities to other languages from even monolingual tuning. Furthermore, we find that only 40 multilingual examples in an English tuning set substantially improve multilingual instruction-following, both in seen and unseen languages during tuning. In general, we observe that models tuned on multilingual mixtures exhibit comparable or superior performance in several languages compared to monolingually tuned models, despite training on 10x fewer examples in those languages. Finally, we find that increasing the number of languages in the instruction tuning set from 1 to only 2, 3, or 4 increases cross-lingual generalization. Our results suggest that building massively multilingual instruction-tuned models can be done with only a very small set of multilingual instruction-responses.
arxiv情報
著者 | Uri Shaham,Jonathan Herzig,Roee Aharoni,Idan Szpektor,Reut Tsarfaty,Matan Eyal |
発行日 | 2024-01-03 17:48:10+00:00 |
arxivサイト | arxiv_id(pdf) |