M2Lingual: Enhancing Multilingual, Multi-Turn Instruction Alignment in Large Language Models

要約

命令微調整 (IFT) は、大規模言語モデル (LLM) を命令に従うように調整するために重要です。
近年、数多くの効果的な IFT データセットが提案されていますが、そのほとんどは英語などの高リソース言語に焦点を当てています。
この研究では、多様な言語とタスクのセットで LLM をより適切に調整するために、M2Lingual と呼ばれる、完全に合成された新規分類法 (Evol) ガイド付きの多言語、マルチターン命令微調整データセットを提案します。
M2Lingual には、70 の言語、17 の NLP タスク、および一般的な命令と応答のペアをカバーする、多様なシードに基づいて構築された合計 182,000 の IFT ペアが含まれています。
M2Lingual で微調整された LLM は、既存の多言語 IFT データセットの大部分を大幅に上回ります。
重要なのは、M2Lingual でトレーニングされた LLM は、既存の多言語 IFT データセットと比較して、さまざまな評価ベンチマークにわたって一貫して競争力のある結果を達成していることです。
具体的には、M2Lingual で微調整された LLM は、翻訳された多言語のマルチターン評価ベンチマークやさまざまな多言語タスクで優れたパフォーマンスを達成します。
したがって、私たちは貢献し、その作成に使用される 2 段階の Evol 分類法に貢献します。
M2Lingual リポジトリ – https://huggingface.co/datasets/ServiceNow-AI/M2Lingual

要約(オリジナル)

Instruction finetuning (IFT) is critical for aligning Large Language Models (LLMs) to follow instructions. Numerous effective IFT datasets have been proposed in the recent past, but most focus on high resource languages such as English. In this work, we propose a fully synthetic, novel taxonomy (Evol) guided Multilingual, Multi-turn instruction finetuning dataset, called M2Lingual, to better align LLMs on a diverse set of languages and tasks. M2Lingual contains a total of 182K IFT pairs that are built upon diverse seeds, covering 70 languages, 17 NLP tasks and general instruction-response pairs. LLMs finetuned with M2Lingual substantially outperform the majority of existing multilingual IFT datasets. Importantly, LLMs trained with M2Lingual consistently achieve competitive results across a wide variety of evaluation benchmarks compared to existing multilingual IFT datasets. Specifically, LLMs finetuned with M2Lingual achieve strong performance on our translated multilingual, multi-turn evaluation benchmark as well as a wide variety of multilingual tasks. Thus we contribute, and the 2 step Evol taxonomy used for its creation. M2Lingual repository – https://huggingface.co/datasets/ServiceNow-AI/M2Lingual

arxiv情報

著者 Rishabh Maheshwary,Vikas Yadav,Hoang Nguyen,Khyati Mahajan,Sathwik Tejaswi Madhusudhan
発行日 2024-06-24 16:45:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク