Re-Reading Improves Reasoning in Language Models

要約

推論は、大規模言語モデル (LLM) にとって重要かつ困難な問題を引き起こします。
研究の主な焦点は、LLM の推論プロセスを導き、構造化するための多様なプロンプト戦略の開発を中心に展開されてきました。
ただし、デコーダのみの因果言語モデルに基づくこれらのアプローチでは、入力された質問が 1 回の順方向パスで処理されることが多く、人間の推論に固有の豊かな前後の対話が失われる可能性があります。
重要な側面、つまりプロンプト内に埋め込まれた入力質問そのものには、ほとんど注意が払われていません。
これに応えて、我々は、質問の「再読」と呼ばれる、一見単純だが非常に効果的な刺激戦略を導入します。
人間の学習と問題解決からインスピレーションを得て再読するには、入力プロンプトに埋め込まれた質問情報を再検討する必要があります。
このアプローチは強化の認知原理とシームレスに連携しており、LLM がより深い洞察を抽出し、複雑なパターンを特定し、より微妙なつながりを確立し、最終的にはさまざまなタスクにわたって推論能力を強化できるようになります。
一連の推論ベンチマークで行われた実験は、私たちの方法の有効性と一般性を強調するのに役立ちます。
さらに、私たちの調査結果は、私たちのアプローチがさまざまな言語モデル、誘発型プロンプト手法、およびアンサンブル技術とシームレスに統合されていることを示しており、LLM の領域におけるその多用途性と互換性をさらに強調しています。

要約(オリジナル)

Reasoning presents a significant and challenging issue for Large Language Models (LLMs). The predominant focus of research has revolved around developing diverse prompting strategies to guide and structure the reasoning processes of LLMs. However, these approaches based on decoder-only causal language models often operate the input question in a single forward pass, potentially missing the rich, back-and-forth interactions inherent in human reasoning. Scant attention has been paid to a critical dimension, i.e., the input question itself embedded within the prompts. In response, we introduce a deceptively simple yet highly effective prompting strategy, termed question ‘re-reading’. Drawing inspiration from human learning and problem-solving, re-reading entails revisiting the question information embedded within input prompts. This approach aligns seamlessly with the cognitive principle of reinforcement, enabling LLMs to extract deeper insights, identify intricate patterns, establish more nuanced connections, and ultimately enhance their reasoning capabilities across various tasks. Experiments conducted on a series of reasoning benchmarks serve to underscore the effectiveness and generality of our method. Moreover, our findings demonstrate that our approach seamlessly integrates with various language models, though-eliciting prompting methods, and ensemble techniques, further underscoring its versatility and compatibility in the realm of LLMs.

arxiv情報

著者 Xiaohan Xu,Chongyang Tao,Tao Shen,Can Xu,Hongbo Xu,Guodong Long,Jian-guang Lou
発行日 2023-09-12 14:36:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク