要約
大規模言語モデル (LLM) は、言語の理解とインタラクティブな意思決定のタスク全体で印象的な機能を実証してきましたが、推論 (思考連鎖の促進など) と行動 (行動計画の生成など) の能力は、主に個別のトピックとして研究されてきました。
このホワイト ペーパーでは、LLM を使用して推論トレースとタスク固有のアクションの両方を交互に生成し、2 つの間の相乗効果を高める方法について説明します。推論トレースは、モデルがアクション プランを誘導、追跡、更新するだけでなく、アクション プランを処理するのにも役立ちます。
アクションは、ナレッジ ベースや環境などの外部ソースと連携して、追加情報を収集できるようにします。
ReAct という名前のアプローチをさまざまな言語および意思決定タスクに適用し、最先端のベースラインに対するその有効性、および推論や行動要素のない方法に対する人間の解釈可能性と信頼性の向上を実証します。
具体的には、質問応答 (HotpotQA) と事実検証 (Fever) について、ReAct は単純な Wikipedia API と対話することで、思考連鎖推論に蔓延する幻覚とエラー伝播の問題を克服し、人間のようなタスク解決の軌跡を生成します。
推論の痕跡がなく、ベースラインよりも解釈しやすい。
2 つのインタラクティブな意思決定ベンチマーク (ALFWorld と WebShop) では、ReAct は、1 つまたは 2 つのコンテキスト内の例で促されながら、それぞれ 34% と 10% の絶対成功率で模倣および強化学習法よりも優れています。
コード付きのプロジェクト サイト: https://react-lm.github.io
要約(オリジナル)
While large language models (LLMs) have demonstrated impressive capabilities across tasks in language understanding and interactive decision making, their abilities for reasoning (e.g. chain-of-thought prompting) and acting (e.g. action plan generation) have primarily been studied as separate topics. In this paper, we explore the use of LLMs to generate both reasoning traces and task-specific actions in an interleaved manner, allowing for greater synergy between the two: reasoning traces help the model induce, track, and update action plans as well as handle exceptions, while actions allow it to interface with external sources, such as knowledge bases or environments, to gather additional information. We apply our approach, named ReAct, to a diverse set of language and decision making tasks and demonstrate its effectiveness over state-of-the-art baselines, as well as improved human interpretability and trustworthiness over methods without reasoning or acting components. Concretely, on question answering (HotpotQA) and fact verification (Fever), ReAct overcomes issues of hallucination and error propagation prevalent in chain-of-thought reasoning by interacting with a simple Wikipedia API, and generates human-like task-solving trajectories that are more interpretable than baselines without reasoning traces. On two interactive decision making benchmarks (ALFWorld and WebShop), ReAct outperforms imitation and reinforcement learning methods by an absolute success rate of 34% and 10% respectively, while being prompted with only one or two in-context examples. Project site with code: https://react-lm.github.io
arxiv情報
著者 | Shunyu Yao,Jeffrey Zhao,Dian Yu,Nan Du,Izhak Shafran,Karthik Narasimhan,Yuan Cao |
発行日 | 2023-03-10 01:00:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google