Enhancing Chain-of-Thoughts Prompting with Iterative Bootstrapping in Large Language Models

要約

大規模言語モデル (LLM) は、段階的な思考連鎖 (CoT) プロンプトをデモンストレーションとして組み込むことで、さまざまな推論タスクで非常に効果的なパフォーマンスを達成できます。
ただし、LLM によって生成されるデモンストレーションの推論チェーンにはエラーが発生しやすく、推論中に誤った推論が発生する可能性があります。
さらに、不適切なサンプル (過度に単純または複雑) は、さまざまな難易度の全体的なパフォーマンスに影響を与える可能性があります。
我々は、見本の選択と推論チェーンの生成のための反復ブートストラップ手法である Iter-CoT (思考連鎖プロンプティングにおける反復ブートストラップ) を導入します。
反復ブートストラップを利用することで、私たちのアプローチにより、LLM が自律的にエラーを修正できるようになり、その結果、より正確で包括的な推論チェーンが得られます。
同時に、私たちのアプローチは、中程度の難易度の例として推論チェーンを伴う、挑戦的だが答えやすい質問を選択します。これにより、さまざまな難易度レベルにわたる LLM の一般化可能性が高まります。
実験結果は、Iter-CoT が優位性を示し、10 個のデータセット上の 3 つの異なる推論タスクにわたって競争力のあるパフォーマンスを達成することを示しています。

要約(オリジナル)

Large language models (LLMs) can achieve highly effective performance on various reasoning tasks by incorporating step-by-step chain-of-thought (CoT) prompting as demonstrations. However, the reasoning chains of demonstrations generated by LLMs are prone to errors, which can subsequently lead to incorrect reasoning during inference. Furthermore, inappropriate exemplars (overly simplistic or complex), can affect overall performance among varying levels of difficulty. We introduce Iter-CoT (Iterative bootstrapping in Chain-of-Thoughts Prompting), an iterative bootstrapping approach for selecting exemplars and generating reasoning chains. By utilizing iterative bootstrapping, our approach enables LLMs to autonomously rectify errors, resulting in more precise and comprehensive reasoning chains. Simultaneously, our approach selects challenging yet answerable questions accompanied by reasoning chains as exemplars with a moderate level of difficulty, which enhances the LLMs’ generalizability across varying levels of difficulty. Experimental results indicate that Iter-CoT exhibits superiority, achieving competitive performance across three distinct reasoning tasks on ten datasets.

arxiv情報

著者 Jiashuo Sun,Yi Luo,Yeyun Gong,Chen Lin,Yelong Shen,Jian Guo,Nan Duan
発行日 2024-03-15 10:28:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク