要約
最近の取り組みでは、根拠や推論を必要とするタスクのために、外部リソース (例: インターネット) または内部制御フロー (例: プロンプトチェーン) を備えた大規模言語モデル (LLM) が組み込まれています。
しかし、これらの取り組みはほとんど断片的なものであり、本格的な言語エージェントを構築するための体系的なフレームワークが欠けていました。
この課題に対処するために、私たちは記号人工知能におけるエージェント設計の豊かな歴史を利用して、認知言語エージェントの新しい波の青写真を開発します。
まず、LLM には実稼働システムと同じ特性が多くあり、その根拠や推論を改善するための最近の取り組みは、実稼働システムを中心に構築された認知アーキテクチャの開発を反映していることを示します。
次に、言語エージェントのための認知アーキテクチャ (CoALA) を提案します。これは、フレームワーク内の言語エージェントのインスタンス化として、LLM ベースの推論、グラウンディング、学習、意思決定のためのさまざまな方法を体系化する概念的なフレームワークです。
最後に、CoALA フレームワークを使用してギャップを強調し、将来のより有能な言語エージェントに向けた実用的な方向性を提案します。
要約(オリジナル)
Recent efforts have incorporated large language models (LLMs) with external resources (e.g., the Internet) or internal control flows (e.g., prompt chaining) for tasks requiring grounding or reasoning. However, these efforts have largely been piecemeal, lacking a systematic framework for constructing a fully-fledged language agent. To address this challenge, we draw on the rich history of agent design in symbolic artificial intelligence to develop a blueprint for a new wave of cognitive language agents. We first show that LLMs have many of the same properties as production systems, and recent efforts to improve their grounding or reasoning mirror the development of cognitive architectures built around production systems. We then propose Cognitive Architectures for Language Agents (CoALA), a conceptual framework to systematize diverse methods for LLM-based reasoning, grounding, learning, and decision making as instantiations of language agents in the framework. Finally, we use the CoALA framework to highlight gaps and propose actionable directions toward more capable language agents in the future.
arxiv情報
著者 | Theodore Sumers,Shunyu Yao,Karthik Narasimhan,Thomas L. Griffiths |
発行日 | 2023-09-05 17:56:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google