要約
大規模言語モデル (LLM) は、広範な知識と推論能力の両方を必要とする複雑なタスクの処理において優れたパフォーマンスを示しています。
ただし、既存の LLM 推論パイプラインは、知識の検索と推論のステップが明確に分離されていない不透明なプロセスとして動作するため、モデルの意思決定プロセスが不明確で混乱しています。
この曖昧さは、幻覚や知識の忘却などの問題を引き起こす可能性があり、一か八かの分野における LLM の信頼性に大きな影響を与えます。
この論文では、複雑な推論プロセスを 2 つの明確なアクションに分解する新しい推論パラダイムを提案します。(1) 記憶の想起: 関連する知識を検索します。(2) 推論: 想起された知識に基づいて論理ステップを実行します。
この分解を容易にするために、メモリと理由という 2 つの特別なトークンを導入し、知識の検索を必要とするステップと推論を必要とするステップを区別するようにモデルを導きます。
私たちの実験結果は、この分解によりモデルのパフォーマンスが向上するだけでなく、推論プロセスの解釈可能性も向上し、ユーザーがエラーの原因を特定してモデルの応答を効果的に調整できるようになることを示しています。
コードは https://github.com/MingyuJ666/Disentangling-Memory-and-Reasoning で入手できます。
要約(オリジナル)
Large Language Models (LLMs) have demonstrated strong performance in handling complex tasks requiring both extensive knowledge and reasoning abilities. However, the existing LLM inference pipeline operates as an opaque process without explicit separation between knowledge retrieval and reasoning steps, making the model’s decision-making process unclear and disorganized. This ambiguity can lead to issues such as hallucinations and knowledge forgetting, which significantly impact the reliability of LLMs in high-stakes domains. In this paper, we propose a new inference paradigm that decomposes the complex inference process into two distinct and clear actions: (1) memory recall: which retrieves relevant knowledge, and (2) reasoning: which performs logical steps based on the recalled knowledge. To facilitate this decomposition, we introduce two special tokens memory and reason, guiding the model to distinguish between steps that require knowledge retrieval and those that involve reasoning. Our experiment results show that this decomposition not only improves model performance but also enhances the interpretability of the inference process, enabling users to identify sources of error and refine model responses effectively. The code is available at https://github.com/MingyuJ666/Disentangling-Memory-and-Reasoning.
arxiv情報
著者 | Mingyu Jin,Weidi Luo,Sitao Cheng,Xinyi Wang,Wenyue Hua,Ruixiang Tang,William Yang Wang,Yongfeng Zhang |
発行日 | 2024-11-21 05:19:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google