Progressive-Hint Prompting Improves Reasoning in Large Language Models

要約

タイトル: プログレッシブ・ヒント・プロンプティングは大規模言語モデルの推論力を向上させる

要約:

– 大規模言語モデル(LLM)の推論力はプロンプトの設計に強く依存する。
– Chain-of-Thought(CoT)や自己一貫性は、この能力を向上させるために重要な方法である。
– しかしながら、これらの方法は、LLMが生成した回答を完全に活用して後続の回答を導くことができない。
– この論文は、以前に生成された回答をヒントとして使用して徐々に正しい回答に導くことができる新しいプロンプティング方法、Progressive-Hint Prompting(PHP)を提案している。
– PHPはCoTや自己一貫性とは直交しているため、最新の技術と組み合わせてさらに性能を向上させることが容易である。
– 本研究では、提案された方法の効果を実証するために包括的で詳細な評価を実施した。
– 6つのベンチマークでの実験結果は、CoTや自己一貫性をPHPと組み合わせることで、精度が大幅に向上し、高い効率性が保たれることを示している。
– 例えば、text-davinci-003では、Greedy DecodingでGSM8Kに対してComplex CoTと比較して4.2%の改善が見られ、self-consistencyではサンプルパスが46.17%減少した。
– GPT-4とPHPを組み合わせることで、SVAMP(91.9%)、GSM8K(95.5%)、AQuA(79.9%)で最高の性能を発揮する。

要約(オリジナル)

The performance of Large Language Models (LLMs) in reasoning tasks depends heavily on prompt design, with Chain-of-Thought (CoT) and self-consistency being critical methods that enhance this ability. However, these methods do not fully exploit the answers generated by the LLM to guide subsequent responses. This paper proposes a new prompting method, named Progressive-Hint Prompting (PHP), that enables automatic multiple interactions between users and LLMs by using previously generated answers as hints to progressively guide toward the correct answers. PHP is orthogonal to CoT and self-consistency, making it easy to combine with state-of-the-art techniques to further improve performance. We conducted an extensive and comprehensive evaluation to demonstrate the effectiveness of the proposed method. Our experimental results on six benchmarks show that combining CoT and self-consistency with PHP significantly improves accuracy while remaining highly efficient. For instance, with text-davinci-003, we observed a 4.2% improvement on GSM8K with greedy decoding compared to Complex CoT, and a 46.17% reduction in sample paths with self-consistency. With GPT-4 and PHP, we achieve state-of-the-art performances on SVAMP (91.9%), GSM8K (95.5%) and AQuA (79.9%).

arxiv情報

著者 Chuanyang Zheng,Zhengying Liu,Enze Xie,Zhenguo Li,Yu Li
発行日 2023-04-19 16:29:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL, cs.LG パーマリンク