要約
大規模な言語モデル(LLM)は、さまざまな自然言語処理タスクで顕著なパフォーマンスを示していますが、複雑な問題解決には言語の理解と数学的推論スキルの両方が必要な数学的推論では課題に直面しています。
この課題に対処するための既存のアプローチは、多くの場合、アンサンブル方法に依存し、ターゲットドメインのデータ不足の問題に苦しんでいます。
この作業では、数学的推論タスクでLLMSの機能を強化する新しい方法を提示します。
このギャップを埋める必要性に動機付けられたこのアプローチには、質問の言い換え戦略が組み込まれています。これは、一般化を改善するために数学的な質問の言語形態を多様化することを目的としています。
さらに、モデルの学習プロセスを導くために専門的なトレーニング目標が採用され、数学的概念と推論プロセスの理解を深めることに焦点を当てています。
異なるLLMを使用して4つのデータセットで実験を実施し、数学的推論タスクでLLMSのパフォーマンスを改善する際のアプローチの有効性を実証します。
私たちの調査結果は、大規模な言語モデルの進歩における方法論の重要性と、数学的推論能力を必要とする現実世界のアプリケーションに対する潜在的な意味を強調しています。
要約(オリジナル)
Large Language Models (LLMs) have shown remarkable performance in various natural language processing tasks but face challenges in mathematical reasoning, where complex problem-solving requires both linguistic understanding and mathematical reasoning skills. Existing approaches to address this challenge often rely on ensemble methods and suffer from the problem of data scarcity in target domains. In this work, we present a novel method to enhance LLMs’ capabilities in mathematical reasoning tasks. Motivated by the need to bridge this gap, our approach incorporates a question paraphrase strategy, which aims at diversifying the linguistic forms of mathematical questions to improve generalization. Additionally, specialized training objectives are employed to guide the model’s learning process, focusing on enhancing its understanding of mathematical concepts and reasoning processes. We conduct experiments on four datasets using different LLMs, and demonstrate the effectiveness of our approach in improving LLMs’ performance on mathematical reasoning tasks. Our findings underscore the significance of our methodology in the advancement of large language models and its potential implications for real-world applications that require mathematical reasoning abilities.
arxiv情報
著者 | Shuguang Chen,Guang Lin |
発行日 | 2025-03-19 15:56:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google