要約
最近、INSTRUCTEVAL のリリースにより、エンコーダ/デコーダまたはデコーダのみのアーキテクチャを利用する大規模言語モデル (LLM) のパフォーマンスに関する貴重な洞察が得られました。
興味深いことに、FLAN-T5 などの T5 ベースの LLM は、4 年前に導入されたにもかかわらず、一般的な問題解決スキルを必要とするタスクにおいて、LLAMA や VICUNA などの最新のデコーダベースの LLM よりも優れたパフォーマンスを維持し続けています。
このパフォーマンスの不一致は、(1) 事前トレーニング データ、(2) バックボーン アーキテクチャ、および (3) 命令データセットの 3 つの主要な要因に起因すると考えられます。
この技術レポートでは、ChatGPT の会話で微調整された LLAMA に基づく大規模な言語モデルである VICUNA を活用して、3 番目の要素の影響を調査することに主に焦点を当てています。
この目的を達成するために、FLANMINI と呼ばれるカスタマイズされた命令データセット コレクションを使用して VICUNA を微調整しました。
このコレクションには、FLAN として知られる大規模な命令データセットのサブセットに加え、ChatGPT/GPT-4 から派生したさまざまなコード関連データセットおよび会話データセットが含まれています。
このデータセットは、問題解決スキルを必要とする多数のタスクで構成されています。
私たちの実験結果は、モデル FLACUNA の問題解決能力の向上が、FLAN データセット上で VICUNA を微調整することによって得られ、INSTRUCTEVAL の多数のベンチマーク データセット全体で大幅な改善につながることを強く示しています。
FLACUNA は https://huggingface.co/declare-lab/flacuna-13b-v1.0 で公開されています。
要約(オリジナル)
Recently, the release of INSTRUCTEVAL has provided valuable insights into the performance of large language models (LLMs) that utilize encoder-decoder or decoder-only architecture. Interestingly, despite being introduced four years ago, T5-based LLMs, such as FLAN-T5, continue to outperform the latest decoder-based LLMs, such as LLAMA and VICUNA, on tasks that require general problem-solving skills. This performance discrepancy can be attributed to three key factors: (1) Pre-training data, (2) Backbone architecture, and (3) Instruction dataset. In this technical report, our main focus is on investigating the impact of the third factor by leveraging VICUNA, a large language model based on LLAMA, which has undergone fine-tuning on ChatGPT conversations. To achieve this objective, we fine-tuned VICUNA using a customized instruction dataset collection called FLANMINI. This collection includes a subset of the large-scale instruction dataset known as FLAN, as well as various code-related datasets and conversational datasets derived from ChatGPT/GPT-4. This dataset comprises a large number of tasks that demand problem-solving skills. Our experimental findings strongly indicate that the enhanced problem-solving abilities of our model, FLACUNA, are obtained through fine-tuning VICUNA on the FLAN dataset, leading to significant improvements across numerous benchmark datasets in INSTRUCTEVAL. FLACUNA is publicly available at https://huggingface.co/declare-lab/flacuna-13b-v1.0.
arxiv情報
著者 | Deepanway Ghosal,Yew Ken Chia,Navonil Majumder,Soujanya Poria |
発行日 | 2023-07-05 06:36:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google