要約
人間の知能は認知相乗効果の概念に基づいて成長しており、異なる認知プロセス間のコラボレーションと情報統合により、個別の認知プロセスと比較して優れた結果が得られます。
大規模言語モデル (LLM) は、一般的なタスク解決エージェントとして有望なパフォーマンスを示していますが、集中的なドメイン知識と複雑な推論を必要とするタスクには依然として苦労しています。
この研究では、複数のペルソナとマルチターンの自己コラボレーションを行うことで、単一の LLM を認知相乗効果者に変換するソロ パフォーマンス プロンプティング (SPP) を提案します。
コグニティブ・シナジストとは、複数の精神と協力し、個々の強みと知識を組み合わせて、複雑なタスクにおける問題解決と全体的なパフォーマンスを向上させるインテリジェント・エージェントを指します。
SPP は、タスク入力に基づいてさまざまなペルソナを動的に識別してシミュレーションすることにより、LLM の認知相乗効果の可能性を解き放ちます。
LLM で複数のきめの細かいペルソナを割り当てると、単一または固定数のペルソナを使用する場合と比較して、より優れた問題解決能力が引き出されることがわかりました。
私たちは、知識集約型と推論集約型の両方を含む、トリビア クリエイティブ ライティング、コードネーム コラボレーション、ロジック グリッド パズルという 3 つの難しいタスクで SPP を評価します。
LLM の推論能力を単に強化するだけの Chain-of-Thought などの以前の作品とは異なり、SPP は内部の知識獲得能力を効果的に引き出し、幻覚を軽減し、強力な推論能力を維持します。
コード、データ、およびプロンプトは、https://github.com/MikeWangWZHL/Solo-Performance-Prompting.git で見つけることができます。
要約(オリジナル)
Human intelligence thrives on the concept of cognitive synergy, where collaboration and information integration among different cognitive processes yield superior outcomes compared to individual cognitive processes in isolation. Although Large Language Models (LLMs) have demonstrated promising performance as general task-solving agents, they still struggle with tasks that require intensive domain knowledge and complex reasoning. In this work, we propose Solo Performance Prompting (SPP), which transforms a single LLM into a cognitive synergist by engaging in multi-turn self-collaboration with multiple personas. A cognitive synergist refers to an intelligent agent that collaborates with multiple minds, combining their individual strengths and knowledge, to enhance problem-solving and overall performance in complex tasks. By dynamically identifying and simulating different personas based on task inputs, SPP unleashes the potential of cognitive synergy in LLMs. We have discovered that assigning multiple, fine-grained personas in LLMs elicits better problem-solving abilities compared to using a single or fixed number of personas. We evaluate SPP on three challenging tasks: Trivia Creative Writing, Codenames Collaborative, and Logic Grid Puzzle, encompassing both knowledge-intensive and reasoning-intensive types. Unlike previous works, such as Chain-of-Thought, that solely enhance the reasoning abilities in LLMs, SPP effectively elicits internal knowledge acquisition abilities, reduces hallucination, and maintains strong reasoning capabilities. Code, data, and prompts can be found at: https://github.com/MikeWangWZHL/Solo-Performance-Prompting.git.
arxiv情報
著者 | Zhenhailong Wang,Shaoguang Mao,Wenshan Wu,Tao Ge,Furu Wei,Heng Ji |
発行日 | 2023-07-14 09:38:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google