要約
チェーンの思考(COT)などのチェーンベースの推論方法は、大規模な言語モデル(LLM)の推論タスクを解決する上で上昇する役割を果たします。
ただし、\ textit {a septing of reconging}と\ textit {対応する状態遷移}の間の因果的幻想は、特に長距離推論タスクにおいて、LLMの推論能力を進めるための重要な障害になりつつあります。
このペーパーでは、因果的意義と一貫性を同時に考慮するための非鎖ベースの推論フレームワーク、つまり因果的意義と一貫性エンハンサー(CSCE)を提案します。
治療効果評価を利用してLLMの損失関数をカスタマイズして、因果的意義と一貫性という2つの側面から推論能力を高めます。
これにより、モデルが本質的な因果関係をキャプチャし、さまざまなシナリオで堅牢で一貫したパフォーマンスを維持することが保証されます。
さらに、推論プロセスを、COTなどのチェーンベースの方法で一般的に使用される複数の1段階の推論から、1回で推論プロセス全体を出力する因果関係のある方法に変換し、モデルの推論効率をさらに改善します。
広範な実験は、私たちの方法が推論の成功率と速度の両方を改善することを示しています。
これらの改善により、非鎖ベースの方法は、LLMSが推論タスクの完了にも役立つことを示しています。
要約(オリジナル)
Chain-based reasoning methods like chain of thought (CoT) play a rising role in solving reasoning tasks for large language models (LLMs). However, the causal illusions between \textit{a step of reasoning} and \textit{corresponding state transitions} are becoming a significant obstacle to advancing LLMs’ reasoning capabilities, especially in long-range reasoning tasks. This paper proposes a non-chain-based reasoning framework for simultaneous consideration of causal significance and consistency, i.e., the Causal Significance and Consistency Enhancer (CSCE). We customize LLM’s loss function utilizing treatment effect assessments to enhance its reasoning ability from two aspects: causal significance and consistency. This ensures that the model captures essential causal relationships and maintains robust and consistent performance across various scenarios. Additionally, we transform the reasoning process from the cascading multiple one-step reasoning commonly used in Chain-Based methods, like CoT, to a causal-enhanced method that outputs the entire reasoning process in one go, further improving the model’s reasoning efficiency. Extensive experiments show that our method improves both the reasoning success rate and speed. These improvements further demonstrate that non-chain-based methods can also aid LLMs in completing reasoning tasks.
arxiv情報
著者 | Kangsheng Wang,Xiao Zhang,Zizheng Guo,Tianyu Hu,Huimin Ma |
発行日 | 2025-03-14 08:56:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google