MCTS-RAG: Enhancing Retrieval-Augmented Generation with Monte Carlo Tree Search

要約

MCTS-RAGを紹介します。MCTS-RAGは、検索された生成(RAG)を活用して関連するコンテキストとモンテカルロツリー検索(MCTS)を提供して推論パスを改善することにより、知識集約型タスクに関する小言語モデルの推論能力を強化する新しいアプローチを紹介します。
MCTS-RAGは、検索と推論を反復的な意思決定プロセスを通じて動的に統合します。
通常、推論から独立して情報を取得し、したがって知識を準最適に統合する標準的なRAGメソッド、または外部の事実のない内部モデルの知識のみに依存する従来のMCTの推論を統合する標準的なRAGメソッドとは異なり、MCTS-RAGは、構造化された推論と適応的検索を組み合わせます。
この統合されたアプローチは、意思決定を強化し、幻覚を減らし、事実上の正確性と応答の一貫性を改善します。
複数の推論と知識集約的なデータセットデータセット(つまり、ComplexWebQA、GPQA、およびFoolmetWice)の実験結果は、私たちの方法が、推論時間計算を効果的にスケーリングすることにより、GPT-4oなどのフロンティアLMSに匹敵するフロンティアLMSを実現できることを示しています。

要約(オリジナル)

We introduce MCTS-RAG, a novel approach that enhances the reasoning capabilities of small language models on knowledge-intensive tasks by leveraging retrieval-augmented generation (RAG) to provide relevant context and Monte Carlo Tree Search (MCTS) to refine reasoning paths. MCTS-RAG dynamically integrates retrieval and reasoning through an iterative decision-making process. Unlike standard RAG methods, which typically retrieve information independently from reasoning and thus integrate knowledge suboptimally, or conventional MCTS reasoning, which depends solely on internal model knowledge without external facts, MCTS-RAG combines structured reasoning with adaptive retrieval. This integrated approach enhances decision-making, reduces hallucinations, and ensures improved factual accuracy and response consistency. The experimental results on multiple reasoning and knowledge-intensive datasets datasets (i.e., ComplexWebQA, GPQA, and FoolMeTwice) show that our method enables small-scale LMs to achieve performance comparable to frontier LLMs like GPT-4o by effectively scaling inference-time compute, setting a new standard for reasoning in small-scale models.

arxiv情報

著者 Yunhai Hu,Yilun Zhao,Chen Zhao,Arman Cohan
発行日 2025-03-26 17:46:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク