Can Small Language Models Help Large Language Models Reason Better?: LM-Guided Chain-of-Thought

要約

我々は、軽量(すなわち、1B以下)言語モデル(LM)を利用して、ブラックボックス的な大規模(すなわち、10B以上)LMを推論タスクに導く、新しいフレームワークLM-Guided CoTを紹介する。具体的には、まず軽量なLMが各入力インスタンスに対して論理的根拠を生成する。次に、Frozen large LMは、Lightweight LMが生成した理論的根拠に基づいて、タスクの出力を予測する。我々のアプローチは、軽量 LM の学習のみを必要とするという意味で、資源効率に優れている。我々は、1)知識の蒸留と、2)合理性指向とタスク指向の報酬信号からの強化学習により、モデルを最適化する。マルチホップ抽出質問応答(QA)ベンチマークであるHotpotQAと2WikiMultiHopQAを用いて我々の手法を評価する。実験結果は、我々の手法が回答予測精度に関して全てのベースラインを上回ることを示している。また、強化学習が、QAパフォーマンスを向上させ、より質の高い根拠を生成するのに役立っていることも分かった。

要約(オリジナル)

We introduce a novel framework, LM-Guided CoT, that leverages a lightweight (i.e., <1B) language model (LM) for guiding a black-box large (i.e., >10B) LM in reasoning tasks. Specifically, the lightweight LM first generates a rationale for each input instance. The Frozen large LM is then prompted to predict a task output based on the rationale generated by the lightweight LM. Our approach is resource-efficient in the sense that it only requires training the lightweight LM. We optimize the model through 1) knowledge distillation and 2) reinforcement learning from rationale-oriented and task-oriented reward signals. We assess our method with multi-hop extractive question answering (QA) benchmarks, HotpotQA, and 2WikiMultiHopQA. Experimental results show that our approach outperforms all baselines regarding answer prediction accuracy. We also find that reinforcement learning helps the model to produce higher-quality rationales with improved QA performance.

arxiv情報

著者 Jooyoung Lee,Fan Yang,Thanh Tran,Qian Hu,Emre Barut,Kai-Wei Chang,Chengwei Su
発行日 2024-04-04 12:46:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL パーマリンク