Chain of Draft: Thinking Faster by Writing Less

要約

大規模言語モデル(LLM)は、冗長なステップバイステップの推論を重視する思考連鎖(CoT)プロンプトのようなメカニズムによって、複雑な推論タスクを解く際に目覚ましい性能を発揮してきた。しかし、人間は通常、より効率的な戦略を採用している。すなわち、重要な情報のみを捉えた簡潔な中間思考を起草することである。本研究では、人間の認知プロセスにヒントを得た新しいパラダイムであるChain of Draft (CoD)を提案する。冗長性を減らし、重要な洞察に焦点を当てることで、CoDはわずか7.6%のトークンを使用しながらCoTに匹敵するか、それを上回る精度を実現し、様々な推論タスクにおいてコストと待ち時間を大幅に削減する。我々のコードとデータはhttps://github.com/sileix/chain-of-draft。

要約(オリジナル)

Large Language Models (LLMs) have demonstrated remarkable performance in solving complex reasoning tasks through mechanisms like Chain-of-Thought (CoT) prompting, which emphasizes verbose, step-by-step reasoning. However, humans typically employ a more efficient strategy: drafting concise intermediate thoughts that capture only essential information. In this work, we propose Chain of Draft (CoD), a novel paradigm inspired by human cognitive processes, where LLMs generate minimalistic yet informative intermediate reasoning outputs while solving tasks. By reducing verbosity and focusing on critical insights, CoD matches or surpasses CoT in accuracy while using as little as only 7.6% of the tokens, significantly reducing cost and latency across various reasoning tasks. Our code and data are available at https://github.com/sileix/chain-of-draft.

arxiv情報

著者 Silei Xu,Wenhao Xie,Lingxiao Zhao,Pengcheng He
発行日 2025-03-03 17:08:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, I.2.7 パーマリンク