要約
大規模言語モデル (LLM) のパフォーマンスは、事前トレーニング データセットの品質とサイズに大きく依存します。
ただし、Llama 3 や Mixtral などの最先端のオープン LLM の事前トレーニング データセットは公開されておらず、それらがどのように作成されたかについてはほとんどわかっていません。
この研究では、他のオープンな事前トレーニング データセットよりも優れたパフォーマンスの LLM を生成する、96 個の共通クロール スナップショットから派生した 15 兆のトークン データセットである FineWeb を紹介します。
高品質の事前トレーニング データセットを厳選する最適な方法の理解を進めるために、重複排除とフィルタリング戦略の詳細な調査を含め、FineWeb で使用されるすべての設計上の選択を慎重に文書化して除去します。
さらに、FineWeb からフィルタリングされた教育テキストの 1.3 兆トークン コレクションである FineWeb-Edu を紹介します。
FineWeb-Edu で事前トレーニングされた LLM は、MMLU や ARC などの知識と推論を重視するベンチマークで劇的に優れたパフォーマンスを示します。
データセットとともに、データキュレーションコードベースとアブレーション実験中にトレーニングされたすべてのモデルを公開します。
要約(オリジナル)
The performance of a large language model (LLM) depends heavily on the quality and size of its pretraining dataset. However, the pretraining datasets for state-of-the-art open LLMs like Llama 3 and Mixtral are not publicly available and very little is known about how they were created. In this work, we introduce FineWeb, a 15-trillion token dataset derived from 96 Common Crawl snapshots that produces better-performing LLMs than other open pretraining datasets. To advance the understanding of how best to curate high-quality pretraining datasets, we carefully document and ablate all of the design choices used in FineWeb, including in-depth investigations of deduplication and filtering strategies. In addition, we introduce FineWeb-Edu, a 1.3-trillion token collection of educational text filtered from FineWeb. LLMs pretrained on FineWeb-Edu exhibit dramatically better performance on knowledge- and reasoning-intensive benchmarks like MMLU and ARC. Along with our datasets, we publicly release our data curation codebase and all of the models trained during our ablation experiments.
arxiv情報
著者 | Guilherme Penedo,Hynek Kydlíček,Loubna Ben allal,Anton Lozhkov,Margaret Mitchell,Colin Raffel,Leandro Von Werra,Thomas Wolf |
発行日 | 2024-06-25 13:50:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google