要約
大規模言語モデル (LLM) は、迅速なエンジニアリングが LLM のパフォーマンスの最適化において極めて重要な役割を果たすさまざまな下流タスクで顕著なパフォーマンスを示しています。
このペーパーは、現在のプロンプト エンジニアリング手法の概要を説明するものではなく、LLM が人間のように考えることを期待する擬人化された仮定を保持しながら、プロンプト設計の限界を強調することを目的としています。
35の代表的な研究のレビューから、LLMが人間の確立された論理的思考に従うように導く、目標指向の即時定式化がLLMのパフォーマンスを大幅に向上させることを実証しました。
さらに、目標指向のプロンプト手法を相互に関連する 5 つの段階に分類する新しい分類法を導入し、10 個の適用可能なタスクを要約することで、フレームワークの幅広い適用可能性を実証します。
今後の4つの方向性を提示し、目標志向の迅速なエンジニアリングをさらに重視し、推進していきたいと考えています。
要約(オリジナル)
Large Language Models (LLMs) have shown prominent performance in various downstream tasks in which prompt engineering plays a pivotal role in optimizing LLMs’ performance. This paper, not as an overview of current prompt engineering methods, aims to highlight the limitation of designing prompts while holding an anthropomorphic assumption that expects LLMs to think like humans. From our review of 35 representative studies, we demonstrate that a goal-oriented prompt formulation, which guides LLMs to follow established human logical thinking, significantly improves the performance of LLMs. Furthermore, We introduce a novel taxonomy that categorizes goal-oriented prompting methods into five interconnected stages and we demonstrate the broad applicability of our framework by summarizing ten applicable tasks. With four future directions proposed, we hope to further emphasize and promote goal-oriented prompt engineering.
arxiv情報
著者 | Haochen Li,Jonathan Leung,Zhiqi Shen |
発行日 | 2024-01-25 09:47:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google