要約
タイトル:大規模言語モデルにおける反復的ブートストラップによるチェーン・オブ・ソーツ・プロンプティングの強化
要約:
– 大規模言語モデル(LLM)は、ステップバイステップのチェーン・オブ・ソーツ(CoT)プロンプティングを演習として取り込むことで、様々な推論タスクで高い効果を発揮できる。
– しかし、LLMによって生成される演習の推論チェーンはエラーに陥りやすく、これは推論中に誤った推論につながる恐れがある。
– また、不適切な模範例(あまりに簡単または複雑すぎる)は、困難度の異なる質問での全体的なパフォーマンスに影響を与える可能性がある。
– 我々はIter-CoT(反復的ブートストラッピングによるチェーン・オブ・ソーツ・プロンプティング)を紹介し、模範例の選択と推論チェーンの生成に反復的ブートストラップ手法を使用します。
– 反復的ブートストラップを利用することで、LLMは自律的にエラーを修正し、より正確で包括的な推論チェーンを生成します。
– 同時に、我々の手法は、適度な難易度を持つ推論チェーンを伴う解答可能な質問を選択することで、LLMの困難度の異なる質問全般での汎化性を強化します。
– 実験結果は、Iter-CoTが、11つのデータセットの3つの異なる推論タスクで競争力のあるパフォーマンスを発揮し、優れていることを示しています。
要約(オリジナル)
Large language models (LLMs) can achieve highly effective performance on various reasoning tasks by incorporating step-by-step chain-of-thought (CoT) prompting as demonstrations. However, the reasoning chains of demonstrations generated by LLMs are prone to errors, which can subsequently lead to incorrect reasoning during inference. Furthermore, inappropriate exemplars (overly simplistic or complex), can affect overall performance among varying levels of difficulty. We introduce Iter-CoT (Iterative bootstrapping in Chain-of-Thoughts Prompting), an iterative bootstrapping approach for selecting exemplars and generating reasoning chains. By utilizing iterative bootstrapping, our approach enables LLMs to autonomously rectify errors, resulting in more precise and comprehensive reasoning chains. Simultaneously, our approach selects challenging yet answerable questions accompanied by reasoning chains as exemplars with a moderate level of difficulty, which enhances the LLMs’ generalizability across varying levels of difficulty. Experimental results indicate that Iter-CoT exhibits superiority, achieving competitive performance across three distinct reasoning tasks on eleven datasets.
arxiv情報
著者 | Jiashuo Sun,Yi Luo,Yeyun Gong,Chen Lin,Yelong Shen,Jian Guo,Nan Duan |
発行日 | 2023-04-23 13:54:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI