On the Planning, Search, and Memorization Capabilities of Large Language Models

要約

Generative Pre-trained Transformer (GPT) シリーズなどの大規模言語モデルの急速な進歩は、さまざまな分野に大きな影響を与えています。
この研究では、タスクを計画するための最先端の大規模言語モデル (GPT-4) の可能性を調査します。
私たちは、複数の計画サブフィールドにおけるその有効性を調査し、その長所と限界の両方を強調します。
包括的な検査を通じて、大規模な言語モデルが計画の問題の解決に優れている領域を特定し、その適用性を制限する制約を明らかにします。
私たちの実証分析は、ドメイン抽出、グラフ検索パス計画、敵対的計画の計画における GPT-4 のパフォーマンスに焦点を当てています。
次に、ドメイン固有の大規模言語モデルを微調整して、上記のタスクに対する思考連鎖 (CoT) 機能を向上させる方法を提案します。
この結果は、計画領域における大規模言語モデルの潜在的な応用についての貴重な洞察を提供し、その限界を克服し、機能を拡張するための将来の研究への道を開きます。

要約(オリジナル)

The rapid advancement of large language models, such as the Generative Pre-trained Transformer (GPT) series, has had significant implications across various disciplines. In this study, we investigate the potential of the state-of-the-art large language model (GPT-4) for planning tasks. We explore its effectiveness in multiple planning subfields, highlighting both its strengths and limitations. Through a comprehensive examination, we identify areas where large language models excel in solving planning problems and reveal the constraints that limit their applicability. Our empirical analysis focuses on GPT-4’s performance in planning domain extraction, graph search path planning, and adversarial planning. We then propose a way of fine-tuning a domain-specific large language model to improve its Chain of Thought (CoT) capabilities for the above-mentioned tasks. The results provide valuable insights into the potential applications of large language models in the planning domain and pave the way for future research to overcome their limitations and expand their capabilities.

arxiv情報

著者 Yunhao Yang,Anshul Tomar
発行日 2023-09-05 00:19:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク