Multilingual Instruction Tuning With Just a Pinch of Multilinguality

要約

命令調整された大規模言語モデル (LLM) が世界的に採用されるにつれて、複数の言語での命令に従う能力がますます重要になっています。
この研究では、多言語 LLM の命令チューニング中の多言語性が、トレーニング前コーパスからの言語間の命令追従にどのような影響を与えるかを調査します。
まず、多くの言語が、単一言語チューニングであっても、一部の命令追従機能を他の言語に移すことを示します。
さらに、英語のチューニング セットに統合された 40 個の多言語サンプルだけが、チューニング中に目に見える言語と見えない言語の両方で、多言語の指示への追従を大幅に改善することがわかりました。
一般に、多言語混合で調整されたモデルは、単一言語で調整されたモデルと比較して、それらの言語でのトレーニングの例が 10 分の 1 であるにもかかわらず、複数の言語で同等以上のパフォーマンスを示すことが観察されています。
最後に、たった 2 ~ 4 言語でも命令チューニング セットを多様化すると、言語間の一般化が大幅に改善されることがわかりました。
私たちの結果は、大規模な多言語命令調整モデルの構築は、非常に少数の多言語命令応答セットのみで実行できることを示唆しています。

要約(オリジナル)

As instruction-tuned large language models (LLMs) gain global adoption, their ability to follow instructions in multiple languages becomes increasingly crucial. In this work, we investigate how multilinguality during instruction tuning of a multilingual LLM affects instruction-following across languages from the pre-training corpus. We first show that many languages transfer some instruction-following capabilities to other languages from even monolingual tuning. Furthermore, we find that only 40 multilingual examples integrated in an English tuning set substantially improve multilingual instruction-following, both in seen and unseen languages during tuning. In general, we observe that models tuned on multilingual mixtures exhibit comparable or superior performance in multiple languages compared to monolingually tuned models, despite training on 10x fewer examples in those languages. Finally, we find that diversifying the instruction tuning set with even just 2-4 languages significantly improves cross-lingual generalization. Our results suggest that building massively multilingual instruction-tuned models can be done with only a very small set of multilingual instruction-responses.

arxiv情報

著者 Uri Shaham,Jonathan Herzig,Roee Aharoni,Idan Szpektor,Reut Tsarfaty,Matan Eyal
発行日 2024-02-13 13:22:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク