Think Beyond Size: Dynamic Prompting for More Effective Reasoning

要約

この文書では、大規模言語モデル (LLM) の推論機能の向上を目的とした新しいフレームワークである動的プロンプティングについて説明します。
従来の静的なプロンプト手法とは対照的に、動的プロンプトでは、リアルタイムのタスクの複雑さとモデルのパフォーマンスに基づいて、プロンプト シーケンスとステップ数を適応的に変更できます。
この動的な適応により、幻覚や反復サイクルが減少するため、特に小規模なモデルにおいて、より効率的な問題解決が促進されます。
私たちの経験的評価は、動的プロンプティングにより、小規模な LLM がはるかに大きなモデルと競合して実行できることを示しており、これにより、推論の有効性の主要な決定要因としてモデル サイズを重視する従来の考え方に挑戦することができます。

要約(オリジナル)

This paper presents Dynamic Prompting, a novel framework aimed at improving the reasoning capabilities of Large Language Models (LLMs). In contrast to conventional static prompting methods, Dynamic Prompting enables the adaptive modification of prompt sequences and step counts based on real-time task complexity and model performance. This dynamic adaptation facilitates more efficient problem-solving, particularly in smaller models, by reducing hallucinations and repetitive cycles. Our empirical evaluations demonstrate that Dynamic Prompting allows smaller LLMs to perform competitively with much larger models, thereby challenging the conventional emphasis on model size as the primary determinant of reasoning efficacy.

arxiv情報

著者 Kamesh R
発行日 2024-10-10 17:14:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク