要約
ReAct などのメソッドに見られるように、大規模言語モデル (LLM) は推論および意思決定の能力を大幅に向上させました。
しかし、ReAct は複雑なタスクに取り組む上では有効であるにもかかわらず、元の質問に焦点を合わせられなくなることと、アクション ループに陥ることという 2 つの主な課題に直面しています。
これらの問題に対処するために、反復と早期停止メカニズムを組み込んだ ReAct パラダイムの拡張バージョンである Focused ReAct を導入します。
これらの改善により、モデルは元のクエリに集中し続け、反復的な動作を回避することができます。
実験結果では、元の ReAct メソッドと比較して精度が 18% ~ 530% 向上し、実行時間が最大 34% 短縮されたことが示されています。
要約(オリジナル)
Large language models (LLMs) have significantly improved their reasoning and decision-making capabilities, as seen in methods like ReAct. However, despite its effectiveness in tackling complex tasks, ReAct faces two main challenges: losing focus on the original question and becoming stuck in action loops. To address these issues, we introduce Focused ReAct, an enhanced version of the ReAct paradigm that incorporates reiteration and early stop mechanisms. These improvements help the model stay focused on the original query and avoid repetitive behaviors. Experimental results show accuracy gains of 18% to 530% and a runtime reduction of up to 34% compared to the original ReAct method.
arxiv情報
著者 | Shuoqiu Li,Han Xu,Haipeng Chen |
発行日 | 2024-10-14 17:49:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google