Skywork-Math: Data Scaling Laws for Mathematical Reasoning in Large Language Models — The Story Goes On

要約

この論文では、大規模言語モデル (LLM) の数学的推論能力を潜在的に強化する根本的な要因を調査します。
私たちは、現代の LLM における数学的推論機能のデータ スケーリング則は飽和には程遠いと主張し、データ量の増加に伴ってモデルの品質がどのように向上するかを強調しています。
この主張を裏付けるために、私たちが提案する 250 万インスタンスの Skywork-MathQA データセットを使用して、一般的な 7B LLM で教師あり微調整 (SFT) された Skywork-Math モデル シリーズを導入します。
Skywork-Math 7B は、SFT データのみを使用して、競技レベルの MATH ベンチマークで 51.2%、GSM8K ベンチマークで 83.9% という優れた精度を達成し、MATH で初期バージョンの GPT-4 を上回りました。
Skywork-Math モデルの優れたパフォーマンスは、新しい 2 段階のデータ合成とモデル SFT パイプラインに貢献しており、これには 3 つの異なる拡張方法と多様なシード問題セットが含まれており、さまざまな難易度にわたって Skywork-MathQA データセットの量と質の両方を保証します。

最も重要なことは、研究と産業アプリケーションの両方で LLM の数学的推論能力を強化するための実践的なポイントをいくつか提供することです。

要約(オリジナル)

In this paper, we investigate the underlying factors that potentially enhance the mathematical reasoning capabilities of large language models (LLMs). We argue that the data scaling law for math reasoning capabilities in modern LLMs is far from being saturated, highlighting how the model’s quality improves with increases in data quantity. To support this claim, we introduce the Skywork-Math model series, supervised fine-tuned (SFT) on common 7B LLMs using our proposed 2.5M-instance Skywork-MathQA dataset. Skywork-Math 7B has achieved impressive accuracies of 51.2% on the competition-level MATH benchmark and 83.9% on the GSM8K benchmark using only SFT data, outperforming an early version of GPT-4 on MATH. The superior performance of Skywork-Math models contributes to our novel two-stage data synthesis and model SFT pipelines, which include three different augmentation methods and a diverse seed problem set, ensuring both the quantity and quality of Skywork-MathQA dataset across varying difficulty levels. Most importantly, we provide several practical takeaways to enhance math reasoning abilities in LLMs for both research and industry applications.

arxiv情報

著者 Liang Zeng,Liangjun Zhong,Liang Zhao,Tianwen Wei,Liu Yang,Jujie He,Cheng Cheng,Rui Hu,Yang Liu,Shuicheng Yan,Han Fang,Yahui Zhou
発行日 2024-07-17 16:28:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク