要約
インタラクティブな環境向けに設計されたインテリジェント エージェントは、複雑な推論と適応性が求められるテキストベースのゲームにおいて重大な課題に直面しています。
自己反映を使用する大規模言語モデル (LLM) に基づくエージェントは有望であることが示されていますが、最初は成功すると苦労し、小規模な LLM を使用すると効果が低下します。
Sweet&Sour は、ポジティブな経験と管理された記憶を組み込んで、意思決定時にエージェントが利用できるコンテキストを豊かにすることで、既存のリフレクション手法のこれらの制限に対処する新しいアプローチです。
当社の包括的な分析は、クローズドソースとオープンソースの LLM の両方に及び、特に以前のアプローチでは不十分なシナリオにおいて、エージェントのパフォーマンスを向上させる Sweet&Sour の有効性を実証しています。
要約(オリジナル)
Intelligent agents designed for interactive environments face significant challenges in text-based games, a domain that demands complex reasoning and adaptability. While agents based on large language models (LLMs) using self-reflection have shown promise, they struggle when initially successful and exhibit reduced effectiveness when using smaller LLMs. We introduce Sweet&Sour, a novel approach that addresses these limitations in existing reflection methods by incorporating positive experiences and managed memory to enrich the context available to the agent at decision time. Our comprehensive analysis spans both closed- and open-source LLMs and demonstrates the effectiveness of Sweet&Sour in improving agent performance, particularly in scenarios where previous approaches fall short.
arxiv情報
著者 | Philip Lippmann,Matthijs T. J. Spaan,Jie Yang |
発行日 | 2024-11-04 16:15:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google