要約
大規模言語モデル (LLM) における記号化手法は、LLM の推論能力を向上させるのに効果的であることが示されています。
ただし、これらのアプローチのほとんどは、自然言語を構文的により完全で曖昧さのない形式言語 (Python、SQL など) にマッピングすることにかかっています。
効果的ではありますが、自然言語自体から逸脱し、人間の思考の習慣から逸脱し、代わりにコンピューターの実行の考え方にもっと応えます。
対照的に、私たちは言語学そのものにおける記号の概念から始めることで自然言語を単純化し、LLM がさまざまな自然意味論に包まれた推論問題の共通の定式化と一般的な解決策を学習できるようにしたいと考えています。
この考察から、我々は \textbf{Meta-Reasoning} を提案します。これにより、LLM は意味論的シンボルの分解、つまり意味論的解決を自動的に実行して、特定の推論タスクのさまざまな質問を同様の自然言語表現に最大限に削減できます。
類推によって学習し、データ効率の高いコンテキスト内学習を促進します。
私たちの実験は、メタ推論パラダイムが、より少ない実証で LLM の推論パフォーマンスを顕著に向上させることを示しています。
彼らは、一連の推論だけでなく、特定の種類のタスクに対する一般的な解決策も学ぶことができます。
特に、7 ステップのシャッフルされたオブジェクトの追跡などの記号推論タスクの場合、GPT-3 (text-davinci-002) は、たった 1 回のメタ推論デモンストレーションで 99% 以上の精度を達成し、標準チェーンを備えた現在のすべての LLM を上回ります。
-思考を促す。
要約(オリジナル)
Symbolization methods in large language models (LLMs) have been shown effective to improve LLMs’ reasoning ability. However, most of these approaches hinge on mapping natural languages to formal languages (e.g., Python, SQL) that are more syntactically complete and free of ambiguity. Although effective, they depart from the natural language itself and deviate from the habits of human thinking, and instead cater more to the execution mindset of computers. In contrast, we hope to simplify natural language by starting from the concept of symbols in linguistics itself, so that LLMs can learn the common formulation and general solution of reasoning problems wrapped in different natural semantics. From this consideration, we propose \textbf{Meta-Reasoning}, which allows LLMs to automatically accomplish semantic-symbol deconstruction, i.e., semantic resolution, to maximally reduce different questions of certain reasoning tasks to similar natural language representation, thus gaining the ability to learn by analogy and facilitating data-efficient in-context learning. Our experiments show that the Meta-Reasoning paradigm saliently enhances LLMs’ reasoning performance with fewer demonstrations. They can learn not only reasoning chains but also general solutions to certain types of tasks. In particular, for symbolic reasoning tasks, such as 7-step Tracking Shuffled Objects, GPT-3 (text-davinci-002) achieves over 99% accuracy with only one Meta-Reasoning demonstration, outperforming all current LLMs with the standard chain-of-thought prompting.
arxiv情報
著者 | Yiming Wang,Zhuosheng Zhang,Rui Wang |
発行日 | 2023-06-30 17:38:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google