要約
$\textbf{Platypus}$ は、最も強力なパフォーマンスを実現し、この作品のリリース日の時点で HuggingFace の Open LLM Leaderboard で 1 位に位置する、微調整およびマージされた大規模言語モデル (LLM) のファミリーです。
この研究では、(1) 他のオープン データセットのサブセットである、厳選されたデータセット $\textbf{Open-Platypus}$ について説明します。(2) 細かい処理のプロセス
(3) 特定のドメイン知識を表面化しながら、事前トレーニングされた LLM の強い事前分布を保存するために、LoRA モジュールを調整およびマージします (3) トレーニング データ内のテスト データの漏洩と汚染をチェックする取り組み。将来の研究に役立つ可能性があります。
具体的には、Platypus ファミリは、他の最先端のファインチューニングに必要な微調整データと全体的なコンピューティングのほんの一部を使用しながら、モデル サイズ全体にわたって定量的 LLM メトリクスで強力なパフォーマンスを達成し、世界的な Open LLM リーダーボードのトップに立っています。
調整された LLM。
特に、13B Platypus モデルは、$\textit{単一}$ A100 GPU で 25,000 の質問を使用して 5 時間でトレーニングできます。
これは Open-Platypus データセットの品質の証拠であり、この分野でさらなる改善の機会が開かれます。
プロジェクトページ: https://platypus-llm.github.io
要約(オリジナル)
We present $\textbf{Platypus}$, a family of fine-tuned and merged Large Language Models (LLMs) that achieves the strongest performance and currently stands at first place in HuggingFace’s Open LLM Leaderboard as of the release date of this work. In this work we describe (1) our curated dataset $\textbf{Open-Platypus}$, that is a subset of other open datasets and which $\textit{we release to the public}$ (2) our process of fine-tuning and merging LoRA modules in order to conserve the strong prior of pretrained LLMs, while bringing specific domain knowledge to the surface (3) our efforts in checking for test data leaks and contamination in the training data, which can inform future research. Specifically, the Platypus family achieves strong performance in quantitative LLM metrics across model sizes, topping the global Open LLM leaderboard while using just a fraction of the fine-tuning data and overall compute that are required for other state-of-the-art fine-tuned LLMs. In particular, a 13B Platypus model can be trained on $\textit{a single}$ A100 GPU using 25k questions in 5 hours. This is a testament of the quality of our Open-Platypus dataset, and opens opportunities for more improvements in the field. Project page: https://platypus-llm.github.io
arxiv情報
著者 | Ariel N. Lee,Cole J. Hunter,Nataniel Ruiz |
発行日 | 2023-08-14 17:59:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google