要約
大規模な言語モデル(LLM)は、タスクのコーディングにますます依存していますが、ほとんどのシナリオでは、関連するすべての情報にコンテキストでアクセスするか、トレーニングデータと一致すると想定されています。
LLMSは、コードベースをインタラクティブに探索して、タスクに関連する情報を収集する能力から利益を得ることができると仮定します。
これを達成するために、インタラクティブなコーディング設定でLLMベースのエージェントを開発するために、テキスト環境、つまりDebug-Gymを提示します。
私たちの環境は軽量で、LLMベースのエージェントのインタラクティブなデバッグを容易にするように設計されたPythonデバッガー(PDB)などの便利なツールをプリセットします。
タスクのコーディングとデバッグを超えて、このアプローチは、LLMエージェントによる情報を求める行動から恩恵を受ける他のタスクに一般化できます。
要約(オリジナル)
Large Language Models (LLMs) are increasingly relied upon for coding tasks, yet in most scenarios it is assumed that all relevant information can be either accessed in context or matches their training data. We posit that LLMs can benefit from the ability to interactively explore a codebase to gather the information relevant to their task. To achieve this, we present a textual environment, namely debug-gym, for developing LLM-based agents in an interactive coding setting. Our environment is lightweight and provides a preset of useful tools, such as a Python debugger (pdb), designed to facilitate an LLM-based agent’s interactive debugging. Beyond coding and debugging tasks, this approach can be generalized to other tasks that would benefit from information-seeking behavior by an LLM agent.
arxiv情報
著者 | Xingdi Yuan,Morgane M Moss,Charbel El Feghali,Chinmay Singh,Darya Moldavskaya,Drew MacPhee,Lucas Caccia,Matheus Pereira,Minseon Kim,Alessandro Sordoni,Marc-Alexandre Côté |
発行日 | 2025-03-27 14:43:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google