Task Memory Engine (TME): Enhancing State Awareness for Multi-Step LLM Agent Tasks

要約

大規模な言語モデル(LLM)は、マルチステップタスクの自律エージェントとしてますます使用されています。
ただし、ほとんどの既存のフレームワークは、タスク状態の構造化された理解を維持することができず、多くの場合、線形プロンプトの連結または浅いメモリバッファに依存しています。
これは、脆い性能、頻繁な幻覚、および長距離の依存性の低さにつながります。
この作業では、階層タスクメモリツリー(TMT)を使用してタスクの実行を追跡する軽量で構造化されたメモリモジュールであるタスクメモリエンジン(TME)を提案します。
ツリー内の各ノードはタスクステップに対応し、関連する入力、出力、ステータス、およびサブタスクの関係を保存します。
アクティブなノードパスに基づいてLLMプロンプトを動的に生成するプロンプト合成方法を導入し、実行の一貫性とコンテキスト接地を大幅に改善します。
マルチステップエージェントタスクに関するケーススタディと比較実験を通じて、TMEが最小限の実装のオーバーヘッドでより良いタスク完了精度とより解釈可能な動作につながることを実証します。
TMEの完全な実装は、https://github.com/biubiutomato/tme-agentで入手できます。

要約(オリジナル)

Large Language Models (LLMs) are increasingly used as autonomous agents for multi-step tasks. However, most existing frameworks fail to maintain a structured understanding of the task state, often relying on linear prompt concatenation or shallow memory buffers. This leads to brittle performance, frequent hallucinations, and poor long-range coherence. In this work, we propose the Task Memory Engine (TME), a lightweight and structured memory module that tracks task execution using a hierarchical Task Memory Tree (TMT). Each node in the tree corresponds to a task step, storing relevant input, output, status, and sub-task relationships. We introduce a prompt synthesis method that dynamically generates LLM prompts based on the active node path, significantly improving execution consistency and contextual grounding. Through case studies and comparative experiments on multi-step agent tasks, we demonstrate that TME leads to better task completion accuracy and more interpretable behavior with minimal implementation overhead. The full implementation of TME is available at https://github.com/biubiutomato/TME-Agent.

arxiv情報

著者 Ye Ye
発行日 2025-04-11 13:38:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T05, cs.AI, cs.CL, H.3.3 パーマリンク