RARE: Retrieval-Augmented Reasoning Enhancement for Large Language Models

要約

この研究では、相互推論フレームワーク (rStar) の汎用性の高い拡張機能である RARE (検索拡張推論強化) を導入します。これは、常識や常識などの複雑で知識集約的なタスクのための大規模言語モデル (LLM) 全体で推論の精度と事実の整合性を強化することを目的としています。
医学的な推論。
RARE には、モンテカルロ ツリー検索 (MCTS) フレームワーク内に 2 つの革新的なアクションが組み込まれています。A6 は、最初の問題ステートメントに基づいて検索クエリを生成し、それらのクエリを使用して情報検索を実行し、取得したデータで推論を強化して最終的な答えを定式化します。
A7 は、生成されたサブ質問に特化した情報検索を活用し、関連するコンテキスト情報を使用してこれらのサブ質問に再回答します。
さらに、元のディスクリミネーターを置き換える検索拡張事実スコアラーが提案されており、事実性の高い基準を満たす推論パスを優先します。
LLaMA 3.1 の実験結果は、RARE により、オープンソース LLM が GPT-4 や GPT-4o などのトップ オープンソース モデルと競合するパフォーマンスを達成できることを示しています。
この研究により、論理的一貫性と事実の完全性が重要な領域で LLM を改善するためのスケーラブルなソリューションとして RARE が確立されました。

要約(オリジナル)

This work introduces RARE (Retrieval-Augmented Reasoning Enhancement), a versatile extension to the mutual reasoning framework (rStar), aimed at enhancing reasoning accuracy and factual integrity across large language models (LLMs) for complex, knowledge-intensive tasks such as commonsense and medical reasoning. RARE incorporates two innovative actions within the Monte Carlo Tree Search (MCTS) framework: A6, which generates search queries based on the initial problem statement, performs information retrieval using those queries, and augments reasoning with the retrieved data to formulate the final answer; and A7, which leverages information retrieval specifically for generated sub-questions and re-answers these sub-questions with the relevant contextual information. Additionally, a Retrieval-Augmented Factuality Scorer is proposed to replace the original discriminator, prioritizing reasoning paths that meet high standards of factuality. Experimental results with LLaMA 3.1 show that RARE enables open-source LLMs to achieve competitive performance with top open-source models like GPT-4 and GPT-4o. This research establishes RARE as a scalable solution for improving LLMs in domains where logical coherence and factual integrity are critical.

arxiv情報

著者 Hieu Tran,Zonghai Yao,Junda Wang,Yifan Zhang,Zhichao Yang,Hong Yu
発行日 2024-12-05 14:51:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク