要約
大規模言語モデル (LLM) は、さまざまな複雑な推論タスクにわたる恐るべき経験的パフォーマンスによって実証されているように、言語インテリジェンスの分野を劇的に強化しました。
さらに、理論的な証明は彼らの創発的な推論能力を明らかにし、言語的文脈における彼らの高度な認知能力の説得力のあるショーケースを提供しています。
LLM は、複雑な推論タスクを処理する際の顕著な効率に不可欠で、興味深い思考連鎖 (CoT) 推論テクニックを活用し、答えを導き出す途中の中間ステップを定式化する必要があります。
CoT 推論アプローチは、推論パフォーマンスを向上させるだけでなく、解釈可能性、制御可能性、および柔軟性を強化することにおいても熟練を示しています。
これらの利点を考慮して、最近の研究努力は、言語命令に適切に準拠し、さまざまな環境内でアクションを実行する自律的な言語エージェントの開発を育成するために、CoT 推論方法論を拡張しました。
この調査論文は、重要な研究の側面を貫通する徹底的な議論を組織しており、次の内容を含んでいます。
(ii) CoT におけるパラダイムシフト。
(iii) CoT アプローチによって強化された言語エージェントの急増。
将来性のある研究手段には、一般化、効率、カスタマイズ、拡張性、安全性の探求が含まれます。
この論文は、CoT 推論と言語エージェントに関する包括的な知識を求める初心者や、基礎的な力学に興味があり、これらのトピックに関する最先端の議論に携わる経験豊富な研究者など、幅広い読者を対象としています。
関連論文のリポジトリは、https://github.com/Zoeyyao27/CoT-Igniteing-Agent で利用できます。
要約(オリジナル)
Large language models (LLMs) have dramatically enhanced the field of language intelligence, as demonstrably evidenced by their formidable empirical performance across a spectrum of complex reasoning tasks. Additionally, theoretical proofs have illuminated their emergent reasoning capabilities, providing a compelling showcase of their advanced cognitive abilities in linguistic contexts. Critical to their remarkable efficacy in handling complex reasoning tasks, LLMs leverage the intriguing chain-of-thought (CoT) reasoning techniques, obliging them to formulate intermediate steps en route to deriving an answer. The CoT reasoning approach has not only exhibited proficiency in amplifying reasoning performance but also in enhancing interpretability, controllability, and flexibility. In light of these merits, recent research endeavors have extended CoT reasoning methodologies to nurture the development of autonomous language agents, which adeptly adhere to language instructions and execute actions within varied environments. This survey paper orchestrates a thorough discourse, penetrating vital research dimensions, encompassing: (i) the foundational mechanics of CoT techniques, with a focus on elucidating the circumstances and justification behind its efficacy; (ii) the paradigm shift in CoT; and (iii) the burgeoning of language agents fortified by CoT approaches. Prospective research avenues envelop explorations into generalization, efficiency, customization, scaling, and safety. This paper caters to a wide audience, including beginners seeking comprehensive knowledge of CoT reasoning and language agents, as well as experienced researchers interested in foundational mechanics and engaging in cutting-edge discussions on these topics. A repository for the related papers is available at https://github.com/Zoeyyao27/CoT-Igniting-Agent.
arxiv情報
著者 | Zhuosheng Zhang,Yao Yao,Aston Zhang,Xiangru Tang,Xinbei Ma,Zhiwei He,Yiming Wang,Mark Gerstein,Rui Wang,Gongshen Liu,Hai Zhao |
発行日 | 2023-11-20 14:30:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google