Guiding Reasoning in Small Language Models with LLM Assistance

要約

小言語モデル(SLM)の限られた推論能力は、深く、マルチステップの論理的控除を要求するタスクに対する適合性に疑問を投げかけます。
このペーパーでは、Small Reasons、Large Hints(Smart)と呼ばれるフレームワークを紹介します。これは、大規模な言語モデル(LLMS)からのターゲットガイダンスでSLMの推論を選択的に増強します。
認知的足場の概念に触発されたSmartは、スコアベースの評価を採用して不確実な推論ステップを特定し、必要な場合にのみ修正LLM生成の推論を注入します。
構造化された推論を最適なポリシー検索としてフレーミングすることにより、私たちのアプローチは、徹底的なサンプリングなしで正しいソリューションに向けて推論の軌跡を導きます。
数学的推論データセットに関する実験は、ターゲットを絞った外部足場がパフォーマンスを大幅に改善し、SLMとLLMの両方を共同で使用して、SLMだけが現在解決できない複雑な推論タスクに取り組む方法を開くことを示しています。

要約(オリジナル)

The limited reasoning capabilities of small language models (SLMs) cast doubt on their suitability for tasks demanding deep, multi-step logical deduction. This paper introduces a framework called Small Reasons, Large Hints (SMART), which selectively augments SLM reasoning with targeted guidance from large language models (LLMs). Inspired by the concept of cognitive scaffolding, SMART employs a score-based evaluation to identify uncertain reasoning steps and injects corrective LLM-generated reasoning only when necessary. By framing structured reasoning as an optimal policy search, our approach steers the reasoning trajectory toward correct solutions without exhaustive sampling. Our experiments on mathematical reasoning datasets demonstrate that targeted external scaffolding significantly improves performance, paving the way for collaborative use of both SLM and LLM to tackle complex reasoning tasks that are currently unsolvable by SLMs alone.

arxiv情報

著者 Yujin Kim,Euiin Yi,Minu Kim,Se-Young Yun,Taehyeon Kim
発行日 2025-06-02 08:10:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク