Controlling Large Language Model-based Agents for Large-Scale Decision-Making: An Actor-Critic Approach

要約

大規模言語モデル (LLM) の目覚ましい進歩により、マルチエージェント システム (MAS) における計画および意思決定の問題に対処するための新しい道が開かれています。
しかし、エージェントの数が増加するにつれて、LLM の幻覚と MAS の調整の問題がますます顕著になってきました。
さらに、相当数のエージェント間の対話を促進するために LLM を採用する場合、トークンの効率的な利用が重要な考慮事項として浮上します。
このペーパーでは、これらの課題を軽減するために、LLaMAC と呼ばれるモジュール式フレームワークを開発します。
LLaMAC は、人間の脳で見られるものと同様の値分布エンコーディングを実装し、内部および外部のフィードバック メカニズムを利用してモジュール間のコラボレーションと反復推論を促進します。
システムリソースの割り当てとロボットグリッド輸送を含む評価を通じて、提案したアプローチによってもたらされるかなりの利点を実証します。

要約(オリジナル)

The remarkable progress in Large Language Models (LLMs) opens up new avenues for addressing planning and decision-making problems in Multi-Agent Systems (MAS). However, as the number of agents increases, the issues of hallucination in LLMs and coordination in MAS have become increasingly prominent. Additionally, the efficient utilization of tokens emerges as a critical consideration when employing LLMs to facilitate the interactions among a substantial number of agents. In this paper, we develop a modular framework called LLaMAC to mitigate these challenges. LLaMAC implements a value distribution encoding similar to that found in the human brain, utilizing internal and external feedback mechanisms to facilitate collaboration and iterative reasoning among its modules. Through evaluations involving system resource allocation and robot grid transportation, we demonstrate the considerable advantages afforded by our proposed approach.

arxiv情報

著者 Bin Zhang,Hangyu Mao,Jingqing Ruan,Ying Wen,Yang Li,Shao Zhang,Zhiwei Xu,Dapeng Li,Ziyue Li,Rui Zhao,Lijuan Li,Guoliang Fan
発行日 2024-01-23 14:11:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク