要約
言語モデルの改善を目的とした、制御されたデータセット実験のためのテストベッドである DataComp for Language Models (DCLM) を紹介します。
DCLM の一部として、Common Crawl から抽出された 240T トークンの標準化されたコーパス、OpenLM フレームワークに基づく効果的な事前トレーニング レシピ、および 53 のダウンストリーム評価の広範なスイートを提供します。
DCLM ベンチマークの参加者は、412M から 7B パラメータの範囲のモデル スケールで、重複排除、フィルタリング、データ混合などのデータ キュレーション戦略を実験できます。
DCLM のベースラインとして、私たちは広範な実験を実施し、モデルベースのフィルタリングが高品質のトレーニング セットを組み立てる鍵であることを発見しました。
結果として得られるデータセットである DCLM-Baseline により、7B パラメーター言語モデルをゼロからトレーニングし、2.6T トレーニング トークンを使用して MMLU 上で 5 ショット精度 64% までトレーニングできるようになります。
以前の最先端のオープンデータ言語モデルである MAP-Neo と比較すると、DCLM-Baseline は 40% 少ないコンピューティングでトレーニングされながら、MMLU で 6.6 パーセントの向上を示しています。
当社のベースライン モデルは、MMLU 上の Mistral-7B-v0.3 および Llama 3 8B (63% & 66%) にも匹敵し、Llama の 6.6 分の 1 のコンピューティングでトレーニングされながら、平均 53 の自然言語理解タスクで同様に実行します。
3 8B。
私たちの結果は、言語モデルをトレーニングするためのデータセット設計の重要性を強調し、データキュレーションに関するさらなる研究の出発点を提供します。
要約(オリジナル)
We introduce DataComp for Language Models (DCLM), a testbed for controlled dataset experiments with the goal of improving language models. As part of DCLM, we provide a standardized corpus of 240T tokens extracted from Common Crawl, effective pretraining recipes based on the OpenLM framework, and a broad suite of 53 downstream evaluations. Participants in the DCLM benchmark can experiment with data curation strategies such as deduplication, filtering, and data mixing at model scales ranging from 412M to 7B parameters. As a baseline for DCLM, we conduct extensive experiments and find that model-based filtering is key to assembling a high-quality training set. The resulting dataset, DCLM-Baseline enables training a 7B parameter language model from scratch to 64% 5-shot accuracy on MMLU with 2.6T training tokens. Compared to MAP-Neo, the previous state-of-the-art in open-data language models, DCLM-Baseline represents a 6.6 percentage point improvement on MMLU while being trained with 40% less compute. Our baseline model is also comparable to Mistral-7B-v0.3 and Llama 3 8B on MMLU (63% & 66%), and performs similarly on an average of 53 natural language understanding tasks while being trained with 6.6x less compute than Llama 3 8B. Our results highlight the importance of dataset design for training language models and offer a starting point for further research on data curation.
arxiv情報
著者 | Jeffrey Li,Alex Fang,Georgios Smyrnis,Maor Ivgi,Matt Jordan,Samir Gadre,Hritik Bansal,Etash Guha,Sedrick Keh,Kushal Arora,Saurabh Garg,Rui Xin,Niklas Muennighoff,Reinhard Heckel,Jean Mercat,Mayee Chen,Suchin Gururangan,Mitchell Wortsman,Alon Albalak,Yonatan Bitton,Marianna Nezhurina,Amro Abbas,Cheng-Yu Hsieh,Dhruba Ghosh,Josh Gardner,Maciej Kilian,Hanlin Zhang,Rulin Shao,Sarah Pratt,Sunny Sanyal,Gabriel Ilharco,Giannis Daras,Kalyani Marathe,Aaron Gokaslan,Jieyu Zhang,Khyathi Chandu,Thao Nguyen,Igor Vasiljevic,Sham Kakade,Shuran Song,Sujay Sanghavi,Fartash Faghri,Sewoong Oh,Luke Zettlemoyer,Kyle Lo,Alaaeldin El-Nouby,Hadi Pouransari,Alexander Toshev,Stephanie Wang,Dirk Groeneveld,Luca Soldaini,Pang Wei Koh,Jenia Jitsev,Thomas Kollar,Alexandros G. Dimakis,Yair Carmon,Achal Dave,Ludwig Schmidt,Vaishaal Shankar |
発行日 | 2024-06-18 16:22:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google