Enhancing Reasoning Capabilities of Large Language Models: A Graph-Based Verification Approach

要約

大規模言語モデル (LLM) は、特に数学の文章題などの複雑な推論タスクにおいて、特別に設計されたプロンプトに導かれる場合に、優れた推論能力を発揮します。
これらのモデルは通常、思考連鎖アプローチを使用してタスクを解決します。これにより、推論能力が強化されるだけでなく、問題解決プロセスに関する貴重な洞察も得られます。
ただし、LLM の推論能力を強化する余地はまだ大きくあります。
一部の研究では、LLM 出力検証器を統合すると、追加のモデル トレーニングを必要とせずに推論の精度を向上できることが示唆されています。
この論文では、これらの研究に従い、LLM の推論能力をさらに強化するための新しいグラフベースの方法を紹介します。
我々は、LLM によって生成された推論タスクに対する複数の解は、異なる推論パスからの中間ステップ間の論理接続により推論グラフとして表現できると仮定します。
したがって、LLM によって生成されたソリューションを分析および検証するための Reasoning Graph Verifier (RGV) を提案します。
これらのグラフを評価することで、モデルはより正確で信頼性の高い結果を生み出すことができます。私たちの実験結果は、グラフベースの検証手法が LLM の推論能力を大幅に強化するだけでなく、これらのモデルの推論パフォーマンスの向上という点で既存の検証手法を上回ることを示しています。

要約(オリジナル)

Large Language Models (LLMs) have showcased impressive reasoning capabilities, particularly when guided by specifically designed prompts in complex reasoning tasks such as math word problems. These models typically solve tasks using a chain-of-thought approach, which not only bolsters their reasoning abilities but also provides valuable insights into their problem-solving process. However, there is still significant room for enhancing the reasoning abilities of LLMs. Some studies suggest that the integration of an LLM output verifier can boost reasoning accuracy without necessitating additional model training. In this paper, we follow these studies and introduce a novel graph-based method to further augment the reasoning capabilities of LLMs. We posit that multiple solutions to a reasoning task, generated by an LLM, can be represented as a reasoning graph due to the logical connections between intermediate steps from different reasoning paths. Therefore, we propose the Reasoning Graph Verifier (RGV) to analyze and verify the solutions generated by LLMs. By evaluating these graphs, models can yield more accurate and reliable results.Our experimental results show that our graph-based verification method not only significantly enhances the reasoning abilities of LLMs but also outperforms existing verifier methods in terms of improving these models’ reasoning performance.

arxiv情報

著者 Lang Cao
発行日 2023-09-28 16:35:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク