CoAT: Chain-of-Associated-Thoughts Framework for Enhancing Large Language Models Reasoning

要約

LLM技術の研究は急速に進んでおり、そのほとんどが推論に「高速思考」アプローチを採用している。ほとんどのLLMは、単一のクエリとLLMの推論能力のみに基づいて最終結果を生成する。しかし、OpenAI-o1の登場により、そのプロセスが人間の思考プロセスに近いことから、「ゆっくり考える」技術が注目されるようになった。このフレームワークは、モンテカルロ木探索(MCTS)アルゴリズムと、「連想記憶」と呼ばれる新しい重要な情報を統合する動的なメカニズムとの革新的な相乗効果を導入したものである。MCTSの構造化された探索能力と連想記憶の適応的学習能力を組み合わせることで、CoATはLLMの探索空間を大幅に拡張し、我々のフレームワークが多様な推論経路を探索し、リアルタイムで動的に知識ベースを更新することを可能にする。これにより、フレームワークは以前の推論を再検討して改良するだけでなく、進化する情報を適応的に取り込むことができ、最終的な出力が正確かつ包括的であることを保証する。我々のフレームワークの有効性を検証するために、様々な生成タスクと推論タスクにわたって広範な実験を行った。これらの実験により、我々のフレームワークが従来の推論プロセスよりも精度、一貫性、多様性において優れていることが実証された。このフレームワークは、文脈に関連した情報を保持しながら探索空間を反復的に拡張する能力を有している。

要約(オリジナル)

Research on LLM technologies is rapidly emerging, with most of them employing a ‘fast thinking’ approach to inference. Most LLMs generate the final result based solely on a single query and LLM’s reasoning capabilities. However, with the advent of OpenAI-o1, ‘slow thinking’ techniques have garnered increasing attention because its process is closer to the human thought process. Inspired by the human ability to constantly associate and replenish knowledge during thinking, we developed the novel Chain-of-Associated-Thoughts (CoAT) framework, which introduces an innovative synergy between the Monte Carlo Tree Search (MCTS) algorithm and a dynamic mechanism for integrating new key information, termed ‘associative memory’. By combining the structured exploration capabilities of MCTS with the adaptive learning capacity of associative memory, CoAT significantly expands the LLM search space, enabling our framework to explore diverse reasoning pathways and dynamically update its knowledge base in real-time. This allows the framework to not only revisit and refine earlier inferences but also adaptively incorporate evolving information, ensuring that the final output is both accurate and comprehensive. To validate the effectiveness of our framework, we conducted extensive experiments across a range of generative and reasoning tasks. These experiments demonstrated that our framework outperforms conventional inference processes on accuracy, coherence, and diversity. The framework’s ability to iteratively expand its search space while retaining contextually relevant information results.

arxiv情報

著者 Jianfeng Pan,Senyou Deng,Shaomang Huang
発行日 2025-02-04 15:10:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL パーマリンク