要約
近年の大規模言語モデル(Large Language Models: LLM)の進歩は、様々なアプリケーションにおいて素晴らしい能力を示しているが、LLMは、限られたコンテキストウィンドウや汎化の困難さといった課題に直面している。本論文では、生成エージェントのためのメタ認知モジュールを紹介し、生成エージェントが自身の思考過程や行動を観察できるようにする。システム1とシステム2の認知プロセスをエミュレートするように設計されたこのメタ認知アプローチにより、エージェントは戦略を修正することでパフォーマンスを大幅に向上させることができる。我々は、生成エージェントがゾンビの黙示録を生き延びなければならない状況を含む様々なシナリオでメタ認知モジュールをテストし、エージェントが時間の経過とともにタスクを完了するために戦略を適応・改善する一方で、我々のシステムが他のシステムよりも優れていることを観察した。
要約(オリジナル)
Recent advances in Large Language Models (LLMs) have shown impressive capabilities in various applications, yet LLMs face challenges such as limited context windows and difficulties in generalization. In this paper, we introduce a metacognition module for generative agents, enabling them to observe their own thought processes and actions. This metacognitive approach, designed to emulate System 1 and System 2 cognitive processes, allows agents to significantly enhance their performance by modifying their strategy. We tested the metacognition module on a variety of scenarios, including a situation where generative agents must survive a zombie apocalypse, and observe that our system outperform others, while agents adapt and improve their strategies to complete tasks over time.
arxiv情報
著者 | Jason Toy,Josh MacAdam,Phil Tabor |
発行日 | 2024-02-29 21:05:00+00:00 |
arxivサイト | arxiv_id(pdf) |