要約
大規模言語モデル (LLM) は、推論、言語理解、数学の問題解決などの多くの分野で顕著なパフォーマンスを達成しており、汎用人工知能 (AGI) への重要なステップとみなされています。
ただし、LLM はプロンプトに敏感であることが、日常的な導入にとって依然として大きなボトルネックとなっています。
この論文では、心理学からインスピレーションを得て、LLM のパフォーマンスを向上させるための心の知能を探求する EmotionPrompt を提案します。
EmotionPrompt は、感情的な刺激をプロンプトに組み込むという、非常に単純な原理に基づいて動作します。
実験結果は、同じ単一のプロンプト テンプレートを使用した EmotionPrompt が、ChatGPT、Vicuna-13b、Bloom、T5 などのさまざまなモデルを使用した 8 つのタスクで、元のゼロショット プロンプトおよびゼロショット CoT よりも大幅に優れていることを示しています。
さらに、EmotionPrompt は真実性と有益性の両方を向上させることが観察されました。
私たちは、EmotionPrompt が人間と LLM の相互作用に関する学際的な知識を探求するための新しい手段の先駆けとなると信じています。
要約(オリジナル)
Large language models (LLMs) have achieved significant performance in many fields such as reasoning, language understanding, and math problem-solving, and are regarded as a crucial step to artificial general intelligence (AGI). However, the sensitivity of LLMs to prompts remains a major bottleneck for their daily adoption. In this paper, we take inspiration from psychology and propose EmotionPrompt to explore emotional intelligence to enhance the performance of LLMs. EmotionPrompt operates on a remarkably straightforward principle: the incorporation of emotional stimulus into prompts. Experimental results demonstrate that our EmotionPrompt, using the same single prompt templates, significantly outperforms original zero-shot prompt and Zero-shot-CoT on 8 tasks with diverse models: ChatGPT, Vicuna-13b, Bloom, and T5. Further, EmotionPrompt was observed to improve both truthfulness and informativeness. We believe that EmotionPrompt heralds a novel avenue for exploring interdisciplinary knowledge for humans-LLMs interaction.
arxiv情報
著者 | Cheng Li,Jindong Wang,Kaijie Zhu,Yixuan Zhang,Wenxin Hou,Jianxun Lian,Xing Xie |
発行日 | 2023-07-25 03:30:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google