Active Prompting with Chain-of-Thought for Large Language Models

要約

大規模言語モデル (LLM) の規模の拡大により、算術や常識的な推論など、推論を必要とするさまざまな複雑なタスクに新たな能力がもたらされます。
タスク固有のプロンプトの効果的な設計は、LLM が高品質の回答を生成する能力にとって重要であることが知られています。
特に、複雑な質疑応答タスクに対する効果的なアプローチは、LLM のパフォーマンスを大幅に向上させる思考連鎖 (CoT) 推論を使用した例ベースのプロンプトです。
ただし、現在の CoT メソッドは、人によって注釈が付けられた一連の固定された手本に依存しており、これらは必ずしもさまざまなタスクにとって最も効果的な例ではありません。
このホワイト ペーパーでは、タスク固有のサンプル プロンプト (人間が設計した CoT 推論で注釈を付けた) を使用して、LLM をさまざまなタスクに適応させるための新しい方法、Active-Prompt を提案します。
この目的のために、タスク固有のクエリのプールから注釈を付けるのに最も重要で役立つ質問を決定するという重要な問題の解決策を提案します。
不確実性に基づく能動学習の関連する問題からアイデアを借りることにより、最も不確実な質問を注釈用に選択するために、不確実性を特徴付けるいくつかの指標を導入します。
実験結果は、提案された方法の優位性を示しており、8 つの複雑な推論タスクで最先端を達成しています。
さまざまな不確実性指標、プールサイズ、ゼロショット学習、および精度と不確実性の関係をさらに分析すると、この方法の有効性が実証されます。
コードは https://github.com/shizhediao/active-prompt で入手できます。

要約(オリジナル)

The increasing scale of large language models (LLMs) brings emergent abilities to various complex tasks requiring reasoning, such as arithmetic and commonsense reasoning. It is known that the effective design of task-specific prompts is critical for LLMs’ ability to produce high-quality answers. In particular, an effective approach for complex question-and-answer tasks is example-based prompting with chain-of-thought (CoT) reasoning, which significantly improves the performance of LLMs. However, current CoT methods rely on a fixed set of human-annotated exemplars, which are not necessarily the most effective examples for different tasks. This paper proposes a new method, Active-Prompt, to adapt LLMs to different tasks with task-specific example prompts (annotated with human-designed CoT reasoning). For this purpose, we propose a solution to the key problem of determining which questions are the most important and helpful ones to annotate from a pool of task-specific queries. By borrowing ideas from the related problem of uncertainty-based active learning, we introduce several metrics to characterize the uncertainty so as to select the most uncertain questions for annotation. Experimental results demonstrate the superiority of our proposed method, achieving state-of-the-art on eight complex reasoning tasks. Further analyses of different uncertainty metrics, pool sizes, zero-shot learning, and accuracy-uncertainty relationship demonstrate the effectiveness of our method. Our code will be available at https://github.com/shizhediao/active-prompt.

arxiv情報

著者 Shizhe Diao,Pengcheng Wang,Yong Lin,Tong Zhang
発行日 2023-02-26 15:18:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク