要約
コード用の大規模言語モデル(LLM)は急速に進化しており、コード編集が重要な機能として浮上している。CodeEditorBenchは、デバッグ、翻訳、推敲、要件切り替えなどのコード編集タスクにおけるLLMの性能を厳密に評価するために設計された評価フレームワークです。コード生成のみに焦点を当てた既存のベンチマークとは異なり、CodeEditorBenchは実世界のシナリオとソフトウェア開発の実践的な側面に重点を置いています。様々なプログラミング言語、複雑さレベル、編集タスクをカバーする多様なコーディング課題とシナリオを5つのソースからキュレートしています。19のLLMを評価した結果、クローズドソースモデル(特にGemini-UltraとGPT-4)がCodeEditorBenchにおいてオープンソースモデルを上回ることが明らかになり、問題のタイプやプロンプトの感度に基づくモデルの性能の違いが浮き彫りになりました。CodeEditorBenchは、コード編集能力を評価するための堅牢なプラットフォームを提供することで、LLMの進歩を促進することを目的としています。私たちは、コミュニティがデータセットを拡張し、新しいLLMをベンチマークできるように、すべてのプロンプトとデータセットを公開します。CodeEditorBenchを導入することで、コード編集におけるLLMの進歩に貢献し、研究者や実務家に貴重なリソースを提供します。
要約(オリジナル)
Large Language Models (LLMs) for code are rapidly evolving, with code editing emerging as a critical capability. We introduce CodeEditorBench, an evaluation framework designed to rigorously assess the performance of LLMs in code editing tasks, including debugging, translating, polishing, and requirement switching. Unlike existing benchmarks focusing solely on code generation, CodeEditorBench emphasizes real-world scenarios and practical aspects of software development. We curate diverse coding challenges and scenarios from five sources, covering various programming languages, complexity levels, and editing tasks. Evaluation of 19 LLMs reveals that closed-source models (particularly Gemini-Ultra and GPT-4), outperform open-source models in CodeEditorBench, highlighting differences in model performance based on problem types and prompt sensitivities. CodeEditorBench aims to catalyze advancements in LLMs by providing a robust platform for assessing code editing capabilities. We will release all prompts and datasets to enable the community to expand the dataset and benchmark emerging LLMs. By introducing CodeEditorBench, we contribute to the advancement of LLMs in code editing and provide a valuable resource for researchers and practitioners.
arxiv情報
著者 | Jiawei Guo,Ziming Li,Xueling Liu,Kaijing Ma,Tianyu Zheng,Zhouliang Yu,Ding Pan,Yizhi LI,Ruibo Liu,Yue Wang,Shuyue Guo,Xingwei Qu,Xiang Yue,Ge Zhang,Wenhu Chen,Jie Fu |
発行日 | 2024-04-04 15:49:49+00:00 |
arxivサイト | arxiv_id(pdf) |