Think More, Hallucinate Less: Mitigating Hallucinations via Dual Process of Fast and Slow Thinking

要約

大規模言語モデル(LLM)は卓越した能力を発揮するが、依然として幻覚の問題に直面している。典型的なテキスト生成アプローチでは、意図的な推論を伴わない自動回帰的な生成が採用されており、その結果、しばしば信頼できない、事実に反する不正確な回答が生成される。本論文では、推論中のLLMの幻覚を軽減するために、木探索ベースのアルゴリズム(例えばMCTS)を組み込み、明示的なゆっくり考える生成プロセスを可能にする新しいフレームワークであるHaluSearchを提案する。具体的には、ハルサーチはテキスト生成をステップバイステップの推論プロセスとしてフレーム化し、自己評価報酬モデルを用いて各生成ステップをスコア化し、LLMの内部知識を十分に活用するための最も信頼性の高い生成経路へと木探索を導く。効率と品質のバランスをとるため、認知科学の二重過程理論に着想を得た階層的思考システム切り替え機構を導入し、インスタンスレベルとステップレベルの両方において、質問と推論状態の複雑さに適応して、高速思考モードと低速思考モードを動的に交互に切り替える。英語と中国語の両方のデータセットで広範な実験を行い、その結果、我々のアプローチがベースラインアプローチを大幅に上回ることを示す。

要約(オリジナル)

Large language models (LLMs) demonstrate exceptional capabilities, yet still face the hallucination issue. Typical text generation approaches adopt an auto-regressive generation without deliberate reasoning, which often results in untrustworthy and factually inaccurate responses. In this paper, we propose HaluSearch, a novel framework that incorporates tree search-based algorithms (e.g. MCTS) to enable an explicit slow thinking generation process for mitigating hallucinations of LLMs during inference. Specifically, HaluSearch frames text generation as a step-by-step reasoning process, using a self-evaluation reward model to score each generation step and guide the tree search towards the most reliable generation pathway for fully exploiting the internal knowledge of LLMs. To balance efficiency and quality, we introduce a hierarchical thinking system switch mechanism inspired by the dual process theory in cognitive science, which dynamically alternates between fast and slow thinking modes at both the instance and step levels, adapting to the complexity of questions and reasoning states. We conduct extensive experiments on both English and Chinese datasets and the results show that our approach significantly outperforms baseline approaches.

arxiv情報

著者 Xiaoxue Cheng,Junyi Li,Wayne Xin Zhao,Ji-Rong Wen
発行日 2025-01-03 08:29:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク