Human-like Episodic Memory for Infinite Context LLMs

要約

大規模言語モデル (LLM) は顕著な機能を示していますが、依然として広範なコンテキストの処理に苦労しており、長いシーケンスにわたって一貫性と精度を維持する能力が制限されています。
対照的に、人間の脳は、生涯にわたる広大な時間スケールにわたってエピソード的な経験を組織化し、検索することに優れています。
この研究では、人間のエピソード記憶とイベント認知の重要な側面を微調整なしで LLM に統合する新しいアプローチである EM-LLM を紹介します。これにより、計算効率を維持しながら実質的に無限のコンテキスト長を処理できるようになります。
EM-LLM は、オンライン形式でベイジアン サプライズとグラフ理論の境界洗練を組み合わせて、一連のトークンを一貫したエピソード イベントに編成します。
必要に応じて、これらのイベントは 2 段階の記憶プロセスを通じて取得され、類似性に基づく検索と時間的に連続した検索を組み合わせて、関連情報への人間のような効率的なアクセスが可能になります。
LongBench および InfiniteBench ベンチマークの実験では、EM-LLM の優れたパフォーマンスが実証され、さまざまなベースライン LLM にわたって最先端の検索モデル InfLLM を常に上回っています。
さらに、EM-LLM は、同様のリソースを必要としながらも、幅広いタスクにおいて人気のある RAG よりも優れたパフォーマンスを発揮します。
特に、EM-LLM のパフォーマンスは、ほとんどのタスクでフルコンテキスト モデルをも上回り、1,000 万個のトークンにわたる取得を正常に実行します。これは、このようなモデルでは計算的に実行不可能な規模です。
最後に、我々の分析は、EM-LLMのイベントセグメンテーションと人間が知覚するイベントとの間に強い相関関係があることを明らかにし、この人工システムとその生物学的対応物との間の橋渡しを示唆し、それによって人間の記憶メカニズムを探索するための新しい計算フレームワークを提供します。

要約(オリジナル)

Large language models (LLMs) have shown remarkable capabilities, but still struggle with processing extensive contexts, limiting their ability to maintain coherence and accuracy over long sequences. In contrast, the human brain excels at organising and retrieving episodic experiences across vast temporal scales, spanning a lifetime. In this work, we introduce EM-LLM, a novel approach that integrates key aspects of human episodic memory and event cognition into LLMs with no fine-tuning, enabling them to handle practically infinite context lengths while maintaining computational efficiency. EM-LLM organises sequences of tokens into coherent episodic events using a combination of Bayesian surprise and graph-theoretic boundary refinement in an online fashion. When needed, these events are retrieved through a two-stage memory process, combining similarity-based and temporally contiguous retrieval for efficient and human-like access to relevant information. Experiments on the LongBench and InfiniteBench benchmarks demonstrate EM-LLM’s superior performance, consistently outperforming the state-of-the-art retrieval model InfLLM across various baseline LLMs. In addition, EM-LLM outperforms its popular counterpart, RAG, in a wide range of tasks, while requiring similar resources. Notably, EM-LLM’s performance even surpasses full-context models in most tasks, while successfully performing retrieval across 10 million tokens – a scale computationally infeasible for such models. Finally, our analysis reveals strong correlations between EM-LLM’s event segmentation and human-perceived events, suggesting a bridge between this artificial system and its biological counterpart, thereby offering a novel computational framework for exploring human memory mechanisms.

arxiv情報

著者 Zafeirios Fountas,Martin A Benfeghoul,Adnan Oomerjee,Fenia Christopoulou,Gerasimos Lampouras,Haitham Bou-Ammar,Jun Wang
発行日 2024-10-25 14:27:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, q-bio.NC パーマリンク