Disentangling Memory and Reasoning Ability in Large Language Models

要約

大規模な言語モデル(LLMS)は、広範な知識と推論能力の両方を必要とする複雑なタスクの処理において強力なパフォーマンスを実証しています。
ただし、既存のLLM推論パイプラインは、知識の検索と推論ステップを明示的に分離することなく、不透明なプロセスとして動作し、モデルの意思決定プロセスを不明確にし、混乱させます。
このあいまいさは、幻覚や知識の忘却などの問題につながる可能性があり、それがハイステークスドメインでのLLMの信頼性に大きな影響を与えます。
この論文では、複雑な推論プロセスを2つの明確なアクションに分解する新しい推論パラダイムを提案します。(1)メモリリコール:関連する知識を取得し、(2)推測された知識に基づいて論理的な手順を実行します。
この分解を容易にするために、2つの特別なトークンメモリと理由を導入し、知識の検索を必要とするステップと推論を含むステップを区別するようにモデルを導きます。
私たちの実験結果は、この分解がモデルのパフォーマンスを改善するだけでなく、推論プロセスの解釈可能性を向上させ、ユーザーがエラーの原因を特定し、モデル応答を効果的に改善できることを示しています。
このコードは、https://github.com/mingyuj666/disentangling-memory and-reasoningで入手できます。

要約(オリジナル)

Large Language Models (LLMs) have demonstrated strong performance in handling complex tasks requiring both extensive knowledge and reasoning abilities. However, the existing LLM inference pipeline operates as an opaque process without explicit separation between knowledge retrieval and reasoning steps, making the model’s decision-making process unclear and disorganized. This ambiguity can lead to issues such as hallucinations and knowledge forgetting, which significantly impact the reliability of LLMs in high-stakes domains. In this paper, we propose a new inference paradigm that decomposes the complex inference process into two distinct and clear actions: (1) memory recall: which retrieves relevant knowledge, and (2) reasoning: which performs logical steps based on the recalled knowledge. To facilitate this decomposition, we introduce two special tokens memory and reason, guiding the model to distinguish between steps that require knowledge retrieval and those that involve reasoning. Our experiment results show that this decomposition not only improves model performance but also enhances the interpretability of the inference process, enabling users to identify sources of error and refine model responses effectively. The code is available at https://github.com/MingyuJ666/Disentangling-Memory-and-Reasoning.

arxiv情報

著者 Mingyu Jin,Weidi Luo,Sitao Cheng,Xinyi Wang,Wenyue Hua,Ruixiang Tang,William Yang Wang,Yongfeng Zhang
発行日 2025-05-15 17:05:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク