Diffusion of Thoughts: Chain-of-Thought Reasoning in Diffusion Language Models

要約

拡散モデルはテキスト処理で注目を集めており、従来の自己回帰モデルに比べて多くの潜在的な利点を提供します。
この研究では、拡散モデルと、自己回帰言語モデルの推論能力を向上させる確立された手法である思考連鎖 (CoT) の統合を検討します。
私たちは、拡散プロセスを通じて推論ステップが時間の経過とともに拡散できるようにする、思考の拡散 (DoT) を提案します。
左から右へ、トークンごとに意思決定を行う従来の自己回帰言語モデルとは対照的に、DoT は計算と推論のパフォーマンスの間のトレードオフにおいてより柔軟な対応を提供します。
私たちの実験結果は、複数桁の掛け算や小学校の算数の問題における DoT の有効性を示しています。
さらに、DoT は、有望な自己修正能力と、自己無撞着デコーディングなどの既存の推論強化技術からの利点を紹介します。
私たちの発見は、拡散言語モデルにおける推論能力の理解と開発に貢献します。

要約(オリジナル)

Diffusion models have gained attention in text processing, offering many potential advantages over traditional autoregressive models. This work explores the integration of diffusion models and Chain-of-Thought (CoT), a well-established technique to improve the reasoning ability in autoregressive language models. We propose Diffusion-of-Thought (DoT), allowing reasoning steps to diffuse over time through the diffusion process. In contrast to traditional autoregressive language models that make decisions in a left-to-right, token-by-token manner, DoT offers more flexibility in the trade-off between computation and reasoning performance. Our experimental results demonstrate the effectiveness of DoT in multi-digit multiplication and grade school math problems. Additionally, DoT showcases promising self-correction abilities and benefits from existing reasoning-enhancing techniques like self-consistency decoding. Our findings contribute to the understanding and development of reasoning capabilities in diffusion language models.

arxiv情報

著者 Jiacheng Ye,Shansan Gong,Liheng Chen,Lin Zheng,Jiahui Gao,Han Shi,Chuan Wu,Zhenguo Li,Wei Bi,Lingpeng Kong
発行日 2024-02-12 16:23:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク