要約
継続的学習または増分学習としても知られる生涯学習は、システムが動的な環境に継続的に適応できるようにすることで、汎用人工知能 (AGI) を進歩させるための重要なコンポーネントです。
大規模言語モデル (LLM) は自然言語処理において優れた機能を実証していますが、既存の LLM エージェントは通常、静的システム向けに設計されており、新しい課題に対応して時間の経過とともに適応する能力がありません。
この調査は、生涯学習を LLM ベースのエージェントに組み込むための潜在的な手法を体系的にまとめた初めての調査です。
これらのエージェントのコアコンポーネントを 3 つのモジュールに分類します。マルチモーダル入力統合のための認識モジュール、進化する知識を保存および取得するための記憶モジュール、および動的環境との地に足の着いた対話のためのアクションモジュールです。
これらの柱がどのように集合して継続的な適応を可能にし、壊滅的な忘却を軽減し、長期的なパフォーマンスを向上させるかを強調します。
この調査は、LLM エージェントの生涯学習機能の開発に取り組む研究者や実践者にロードマップを提供し、新たな傾向、評価指標、アプリケーション シナリオについての洞察を提供します。
関連する文献とリソースは、\href{この URL}{https://github.com/qianlima-lab/awesome-lifelong-llm-agent} から入手できます。
要約(オリジナル)
Lifelong learning, also known as continual or incremental learning, is a crucial component for advancing Artificial General Intelligence (AGI) by enabling systems to continuously adapt in dynamic environments. While large language models (LLMs) have demonstrated impressive capabilities in natural language processing, existing LLM agents are typically designed for static systems and lack the ability to adapt over time in response to new challenges. This survey is the first to systematically summarize the potential techniques for incorporating lifelong learning into LLM-based agents. We categorize the core components of these agents into three modules: the perception module for multimodal input integration, the memory module for storing and retrieving evolving knowledge, and the action module for grounded interactions with the dynamic environment. We highlight how these pillars collectively enable continuous adaptation, mitigate catastrophic forgetting, and improve long-term performance. This survey provides a roadmap for researchers and practitioners working to develop lifelong learning capabilities in LLM agents, offering insights into emerging trends, evaluation metrics, and application scenarios. Relevant literature and resources are available at \href{this url}{https://github.com/qianlima-lab/awesome-lifelong-llm-agent}.
arxiv情報
著者 | Junhao Zheng,Chengming Shi,Xidi Cai,Qiuke Li,Duzhen Zhang,Chenxing Li,Dong Yu,Qianli Ma |
発行日 | 2025-01-13 12:42:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google