From Base to Conversational: Japanese Instruction Dataset and Tuning Large Language Models

要約

大規模言語モデル (LLM) を対話型にするためには、命令のチューニングが不可欠です。
多くの命令チューニング データセットは英語で存在しますが、他の言語では著しく不足しています。
また、英語以外の言語ではその有効性が十分に検証されていません。
既存のデータセットを拡張およびフィルタリングすることで日本語の命令データセットを構築し、そのデータセットを日本語の事前トレーニング済みベースモデルに適用します。
命令データセットを使用して、日本語と英語の両方の既存モデルに対して低ランク適応 (LoRA) チューニングを実行しました。
私たちはこれらのモデルを定量的および定性的な観点から評価しました。
その結果、日本語指導データセットの有効性が確認されました。
この結果は、LLM が比較的小さい場合でも、命令チューニングによって下流タスクのパフォーマンスが向上することも示しています。
私たちの命令データセット、調整されたモデル、実装はオンラインで公開されています。

要約(オリジナル)

Instruction tuning is essential for large language models (LLMs) to become interactive. While many instruction tuning datasets exist in English, there is a noticeable lack in other languages. Also, their effectiveness has not been well verified in non-English languages. We construct a Japanese instruction dataset by expanding and filtering existing datasets and apply the dataset to a Japanese pre-trained base model. We performed Low-Rank Adaptation (LoRA) tuning on both Japanese and English existing models using our instruction dataset. We evaluated these models from both quantitative and qualitative perspectives. As a result, the effectiveness of Japanese instruction datasets is confirmed. The results also indicate that even with relatively small LLMs, performances in downstream tasks would be improved through instruction tuning. Our instruction dataset, tuned models, and implementation are publicly available online.

arxiv情報

著者 Masahiro Suzuki,Masanori Hirano,Hiroki Sakaji
発行日 2023-09-07 00:14:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク