Zero-shot cross-lingual transfer in instruction tuning of large language models

要約

命令チューニング (IT) は、事前トレーニングされた大規模言語モデル (LLM) に任意の命令に従うように教えるために広く使用されていますが、多言語設定では十分に研究されていません。
この研究では、LLM が英語のみのデータで命令調整され、その後、他の言語のユーザー プロンプトでテストされる、IT におけるゼロショットの言語間転送の体系的な研究を実施します。
私たちは、多言語指導におけるモデルの応答のさまざまな側面を評価することの重要性を主張し、さまざまなモデル構成の選択の影響を調査します。
たとえモデルトレーニングのすべての段階が英語中心であっても、IT 分野では言語間の転送がうまく行われることがわかりました。ただし、これはハイパーパラメータ調整で多言語性が考慮されており、十分な量の IT データがある場合に限られます。
英語で訓練を受けた LLM は、他の言語でも正しい言語で包括的で役立つ応答を生成することができますが、事実性が低く、流暢さに誤りがある場合があります。

要約(オリジナル)

Instruction tuning (IT) is widely used to teach pretrained large language models (LLMs) to follow arbitrary instructions, but is under-studied in multilingual settings. In this work, we conduct a systematic study of zero-shot cross-lingual transfer in IT, when an LLM is instruction-tuned on English-only data and then tested on user prompts in other languages. We advocate for the importance of evaluating various aspects of model responses in multilingual instruction following and investigate the influence of different model configuration choices. We find that cross-lingual transfer does happen successfully in IT even if all stages of model training are English-centric, but only if multiliguality is taken into account in hyperparameter tuning and with large enough IT data. English-trained LLMs are capable of generating correct-language, comprehensive and helpful responses in other languages, but suffer from low factuality and may occasionally have fluency errors.

arxiv情報

著者 Nadezhda Chirkova,Vassilina Nikoulina
発行日 2024-04-22 10:44:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク