要約
メモリはAIシステムの基本的なコンポーネントであり、大規模な言語モデル(LLMS)ベースのエージェントを支えています。
以前の調査では、LLMSを使用したメモリアプリケーションに焦点を当てていますが、多くの場合、メモリダイナミクスの根底にある原子操作を見落としています。
この調査では、まずメモリ表現をパラメトリック、コンテキスト構造、およびコンテキスト非構造化に分類し、次に6つの基本的なメモリ操作を導入します:統合、更新、インデックス作成、忘却、取得、および圧縮。
これらの操作は、長期的な長期的な文字、パラメトリック変更、およびマルチソースメモリにわたって、最も関連性の高い研究トピックに体系的にマッピングします。
原子運用と表現タイプのレンズを通じてメモリシステムを再構成することにより、この調査は、AIのメモリに関連する研究、ベンチマークデータセット、およびLLMSベースのエージェントの機能的相互作用を明確にしながら、将来の研究のための有望な方向性の概要を明確にするための構造化された動的な視点を提供します{論文リスト、データセット、メソッド、およびツールを利用可能にします。
\ href {https://github.com/elvin-yming-du/survey_memory_in_ai} {https://github.com/elvin-yiming-du/survey \_memory\_in\_ai}。}。
要約(オリジナル)
Memory is a fundamental component of AI systems, underpinning large language models (LLMs) based agents. While prior surveys have focused on memory applications with LLMs, they often overlook the atomic operations that underlie memory dynamics. In this survey, we first categorize memory representations into parametric, contextual structured, and contextual unstructured and then introduce six fundamental memory operations: Consolidation, Updating, Indexing, Forgetting, Retrieval, and Compression. We systematically map these operations to the most relevant research topics across long-term, long-context, parametric modification, and multi-source memory. By reframing memory systems through the lens of atomic operations and representation types, this survey provides a structured and dynamic perspective on research, benchmark datasets, and tools related to memory in AI, clarifying the functional interplay in LLMs based agents while outlining promising directions for future research\footnote{The paper list, datasets, methods and tools are available at \href{https://github.com/Elvin-Yiming-Du/Survey_Memory_in_AI}{https://github.com/Elvin-Yiming-Du/Survey\_Memory\_in\_AI}.}.
arxiv情報
著者 | Yiming Du,Wenyu Huang,Danna Zheng,Zhaowei Wang,Sebastien Montella,Mirella Lapata,Kam-Fai Wong,Jeff Z. Pan |
発行日 | 2025-05-01 17:31:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google