Cooperation on the Fly: Exploring Language Agents for Ad Hoc Teamwork in the Avalon Game

要約

大規模言語モデル (LLM) を使用したマルチエージェントのコラボレーションは、基本的なタスクの熟練度を実証しますが、より複雑なシナリオでの効率性はまだ解明されていません。
ゲーム環境では、これらのエージェントは調整プロトコルが確立されていない状況に直面することが多く、限られたデータからチームメイトについてインテリジェントな推論を行う必要があります。
この問題は、エージェントが共通の目標を達成するためにさまざまなチームメイトと協力する可能性がある、アドホックなチームワークの領域を動機づけます。
私たちの研究は、エージェントが自然言語によって駆動される環境で動作するアドホックなチームワークの問題に焦点を当てています。
私たちの調査結果は、チームコラボレーションにおけるLLMエージェントの可能性を明らかにし、コミュニケーションにおける幻覚に関連する問題を浮き彫りにしました。
この問題に対処するために、私たちは、LLM に強化されたメモリとコード駆動型の推論を装備する汎用エージェントである CodeAct を開発し、新しいチームメイトに迅速に適応するために部分的な情報を再利用できるようにします。

要約(オリジナル)

Multi-agent collaboration with Large Language Models (LLMs) demonstrates proficiency in basic tasks, yet its efficiency in more complex scenarios remains unexplored. In gaming environments, these agents often face situations without established coordination protocols, requiring them to make intelligent inferences about teammates from limited data. This problem motivates the area of ad hoc teamwork, in which an agent may potentially cooperate with a variety of teammates to achieve a shared goal. Our study focuses on the ad hoc teamwork problem where the agent operates in an environment driven by natural language. Our findings reveal the potential of LLM agents in team collaboration, highlighting issues related to hallucinations in communication. To address this issue, we develop CodeAct, a general agent that equips LLM with enhanced memory and code-driven reasoning, enabling the repurposing of partial information for rapid adaptation to new teammates.

arxiv情報

著者 Zijing Shi,Meng Fang,Shunfeng Zheng,Shilong Deng,Ling Chen,Yali Du
発行日 2023-12-29 08:26:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク