RecallM: An Architecture for Temporal Context Understanding and Question Answering

要約

大規模言語モデル (LLM) ベースのチャットボットにとって理想的な長期記憶メカニズムは、継続的な学習、複雑な推論の基礎を築き、逐次的および一時的な依存関係の学習を可能にします。
このタイプの記憶メカニズムを作成することは、非常に困難な問題です。
この論文では、長期記憶の効果を達成するためのさまざまな方法を検討します。
私たちは、AGI システム用の適応性と更新可能な長期メモリの作成に焦点を当てた新しいアーキテクチャを提案します。
私たちはさまざまな実験を通じて、RecallM アーキテクチャの利点、特にそれが提供する知識の時間的理解の向上を実証します。

要約(オリジナル)

The ideal long-term memory mechanism for Large Language Model (LLM) based chatbots, would lay the foundation for continual learning, complex reasoning and allow sequential and temporal dependencies to be learnt. Creating this type of memory mechanism is an extremely challenging problem. In this paper we explore different methods of achieving the effect of long-term memory. We propose a new architecture focused on creating adaptable and updatable long-term memory for AGI systems. We demonstrate through various experiments the benefits of the RecallM architecture, particularly the improved temporal understanding of knowledge it provides.

arxiv情報

著者 Brandon Kynoch,Hugo Latapie
発行日 2023-07-10 20:17:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.SC パーマリンク