If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code Empowers Large Language Models to Serve as Intelligent Agents

要約

今日の著名な大規模言語モデル (LLM) は、サイズだけでなく、自然言語と形式言語 (コード) の組み合わせでトレーニングされるという点でも過去の言語モデルと異なります。
コードは人間とコンピュータの間の媒体として、標準構文、論理的一貫性、抽象化、およびモジュール性を特徴とする、高レベルの目標を実行可能なステップに変換します。
この調査では、LLM のトレーニング データにコードを統合することのさまざまな利点の概要を示します。
具体的には、コード生成で LLM を強化するだけでなく、コードのこれらのユニークな特性が (i) LLM の推論能力を解き放ち、LLM のアプリケーションをより複雑な自然言語タスクの範囲に適用できるようにする。
(ii) LLM を操作して、構造化された正確な中間ステップを生成します。その後、関数呼び出しを通じて外部の実行エンドに接続できます。
(iii) コードのコンパイルおよび実行環境を活用し、モデル改善のためのさまざまなフィードバックも提供します。
さらに、命令を理解し、目標を分解し、アクションを計画および実行し、フィードバックから改善する能力が重要な状況において、コードによってもたらされる LLM のこれらの奥深い機能が、どのようにして LLM をインテリジェント エージェント (IA) として出現させたのかを追跡します。
下流のタスクでの成功につながります。
最後に、LLM にコードを提供するためのいくつかの重要な課題と将来の方向性を示します。

要約(オリジナル)

The prominent large language models (LLMs) of today differ from past language models not only in size, but also in the fact that they are trained on a combination of natural language and formal language (code). As a medium between humans and computers, code translates high-level goals into executable steps, featuring standard syntax, logical consistency, abstraction, and modularity. In this survey, we present an overview of the various benefits of integrating code into LLMs’ training data. Specifically, beyond enhancing LLMs in code generation, we observe that these unique properties of code help (i) unlock the reasoning ability of LLMs, enabling their applications to a range of more complex natural language tasks; (ii) steer LLMs to produce structured and precise intermediate steps, which can then be connected to external execution ends through function calls; and (iii) take advantage of code compilation and execution environment, which also provides diverse feedback for model improvement. In addition, we trace how these profound capabilities of LLMs, brought by code, have led to their emergence as intelligent agents (IAs) in situations where the ability to understand instructions, decompose goals, plan and execute actions, and refine from feedback are crucial to their success on downstream tasks. Finally, we present several key challenges and future directions of empowering LLMs with code.

arxiv情報

著者 Ke Yang,Jiateng Liu,John Wu,Chaoqi Yang,Yi R. Fung,Sha Li,Zixuan Huang,Xu Cao,Xingyao Wang,Yiquan Wang,Heng Ji,Chengxiang Zhai
発行日 2024-01-08 16:22:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク