Cognitive Architectures for Language Agents

要約

最近の取り組みでは、グラウンディングや推論を必要とするタスクのために、外部リソース (例: インターネット) または内部制御フロー (例: プロンプトチェーン) を使用して大規模言語モデル (LLM) を強化し、新しいクラスの言語エージェントにつながりました。
これらのエージェントは経験的に大きな成功を収めていますが、既存のエージェントを組織し、将来の開発を計画するための体系的なフレームワークが不足しています。
この論文では、認知科学と記号人工知能の豊かな歴史を活用して、言語エージェントのための認知アーキテクチャ (CoALA) を提案します。
CoALA は、モジュール式メモリ コンポーネント、内部メモリおよび外部環境と対話するための構造化されたアクション スペース、およびアクションを選択するための一般化された意思決定プロセスを備えた言語エージェントについて説明します。
私たちは CoALA を使用して、最近の大量の研究を遡及的に調査および整理し、より有能なエージェントに向けた実行可能な方向性を前向きに特定します。
まとめると、CoALA は、AI のより広範な歴史の中で今日の言語エージェントを文脈化し、言語ベースの汎用知能への道筋を概説します。

要約(オリジナル)

Recent efforts have augmented large language models (LLMs) with external resources (e.g., the Internet) or internal control flows (e.g., prompt chaining) for tasks requiring grounding or reasoning, leading to a new class of language agents. While these agents have achieved substantial empirical success, we lack a systematic framework to organize existing agents and plan future developments. In this paper, we draw on the rich history of cognitive science and symbolic artificial intelligence to propose Cognitive Architectures for Language Agents (CoALA). CoALA describes a language agent with modular memory components, a structured action space to interact with internal memory and external environments, and a generalized decision-making process to choose actions. We use CoALA to retrospectively survey and organize a large body of recent work, and prospectively identify actionable directions towards more capable agents. Taken together, CoALA contextualizes today’s language agents within the broader history of AI and outlines a path towards language-based general intelligence.

arxiv情報

著者 Theodore R. Sumers,Shunyu Yao,Karthik Narasimhan,Thomas L. Griffiths
発行日 2024-03-15 15:44:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, cs.SC パーマリンク