要約
大規模言語モデル (LLM) は、プロンプト手法の開発により、推論タスクにおいて目覚ましい成功を収めてきました。
しかし、既存のプロンプトアプローチは、LLM に \textit{ゼロから} 推論するよう促すため、同様の問題を解決した洞察を再利用できず、複数ステップの推論で蓄積されたエラーに悩まされます。
これらの問題に対処するために、類似の問題を調査し、その解決策を活用して LLM の複雑な推論能力を強化する \textbf{\textit{Thought Propagation} (TP)} を提案します。
これらの類似した問題は、再利用可能なソリューションと問題解決戦略を備えた入力問題に関連しています。
したがって、以前の類似の問題を解決した洞察を広めて、新しい問題解決を促すことが期待されます。
これを達成するために、TP はまず LLM に、入力された問題に関連する一連の類似した問題を提案して解決するように促します。
次に、TP は類似の問題の結果を再利用して、新しい解決策を直接導き出すか、最初から得られた最初の解決策を修正するための知識集約的な実行計画を導き出します。
TP は既存のプロンプト アプローチと互換性があり、タスク固有のプロンプト エンジニアリングに多大な労力を費やすことなく、幅広いタスクでプラグ アンド プレイの一般化と拡張を可能にします。
3 つの困難なタスクにわたる実験では、最短経路推論で最適解を見つける絶対的な増加が平均 12\%、クリエイティブ ライティングで人間の好みが 13\% 向上し、能力が 15\% 向上し、TP がベースラインと比べて大幅に向上していることが実証されました。
LLM-Agent Planning のタスク完了率。
要約(オリジナル)
Large Language Models (LLMs) have achieved remarkable success in reasoning tasks with the development of prompting methods. However, existing prompting approaches cannot reuse insights of solving similar problems and suffer from accumulated errors in multi-step reasoning, since they prompt LLMs to reason \textit{from scratch}. To address these issues, we propose \textbf{\textit{Thought Propagation} (TP)}, which explores the analogous problems and leverages their solutions to enhance the complex reasoning ability of LLMs. These analogous problems are related to the input one, with reusable solutions and problem-solving strategies. Thus, it is promising to propagate insights of solving previous analogous problems to inspire new problem-solving. To achieve this, TP first prompts LLMs to propose and solve a set of analogous problems that are related to the input one. Then, TP reuses the results of analogous problems to directly yield a new solution or derive a knowledge-intensive plan for execution to amend the initial solution obtained from scratch. TP is compatible with existing prompting approaches, allowing plug-and-play generalization and enhancement in a wide range of tasks without much labor in task-specific prompt engineering. Experiments across three challenging tasks demonstrate TP enjoys a substantial improvement over the baselines by an average of 12\% absolute increase in finding the optimal solutions in Shortest-path Reasoning, 13\% improvement of human preference in Creative Writing, and 15\% enhancement in the task completion rate of LLM-Agent Planning.
arxiv情報
著者 | Junchi Yu,Ran He,Rex Ying |
発行日 | 2023-10-06 01:40:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google