BigCodeBench: Benchmarking Code Generation with Diverse Function Calls and Complex Instructions

要約

タスクの自動化は、Python コードを介した大規模言語モデル (LLM) の最近の進歩によって大幅に強化されており、タスクはソフトウェア エンジニアリング開発から汎用推論にまで及びます。
現在のベンチマークでは、LLM が人間の開発者と同じようにプログラムを使用してタスクを解決できることが示されていますが、その評価の大部分は、短く自己完結型のアルゴリズム タスクまたはスタンドアロン関数呼び出しに限定されています。
困難かつ現実的な問題を解決するには、データ分析や Web 開発などの機能を効率的に実装するツールとして、さまざまな関数呼び出しを利用する機能が必要です。
さらに、複数のツールを使用してタスクを解決するには、複雑な指示を正確に理解することによる構成的推論が必要です。
これらの特性の両方を満たすことは、LLM にとって大きな課題となる可能性があります。LLM がプログラムを介して困難で実践的なタスクをどれだけうまく解決できるかを評価するために、LLM が 139 のライブラリと 7 つのドメインからのツールとして複数の関数呼び出しを呼び出すように挑戦するベンチマークである BigCodeBench を紹介します。
1,140 のきめ細かいタスク。
LLM を厳密に評価するために、各タスクには平均分岐カバレッジ 99% の 5.6 個のテスト ケースが含まれています。
さらに、BigCodeBench の自然言語指向のバリアントである BigCodeBench-Instruct を提案します。これは、元の docstring を重要な情報のみを含む短い命令に自動的に変換します。
60 個の LLM を広範に評価した結果、LLM は関数呼び出しを正確に使用するための複雑な命令にまだ従うことができず、そのスコアは最大 60% であり、人間のパフォーマンスの 97% よりも大幅に低いことがわかりました。
この結果は、この分野でのさらなる進歩の必要性を強調しています。

要約(オリジナル)

Task automation has been greatly empowered by the recent advances in Large Language Models (LLMs) via Python code, where the tasks ranging from software engineering development to general-purpose reasoning. While current benchmarks have shown that LLMs can solve tasks using programs like human developers, the majority of their evaluations are limited to short and self-contained algorithmic tasks or standalone function calls. Solving challenging and practical requires the capability of utilizing diverse function calls as tools to efficiently implement functionalities like data analysis and web development. In addition, using multiple tools to solve a task needs compositional reasoning by accurately understanding complex instructions. Fulfilling both of these characteristics can pose a great challenge for LLMs.To assess how well LLMs can solve challenging and practical tasks via programs, we introduce BigCodeBench, a benchmark that challenges LLMs to invoke multiple function calls as tools from 139 libraries and 7 domains for 1,140 fine-grained tasks. To evaluate LLMs rigorously, each task encompasses 5.6 test cases with an average branch coverage of 99%. In addition, we propose a natural-language-oriented variant of BigCodeBench, BigCodeBench-Instruct, that automatically transforms the original docstrings into short instructions only with essential information. Our extensive evaluation of 60 LLMs shows that LLMs are not yet capable of following complex instructions to use function calls precisely, with scores up to 60%, significantly lower than the human performance of 97%. The results underscore the need for further advancements in this area.

arxiv情報

著者 Terry Yue Zhuo,Minh Chien Vu,Jenny Chim,Han Hu,Wenhao Yu,Ratnadira Widyasari,Imam Nur Bani Yusuf,Haolan Zhan,Junda He,Indraneil Paul,Simon Brunner,Chen Gong,Thong Hoang,Armel Randy Zebaze,Xiaoheng Hong,Wen-Ding Li,Jean Kaddour,Ming Xu,Zhihan Zhang,Prateek Yadav,Naman Jain,Alex Gu,Zhoujun Cheng,Jiawei Liu,Qian Liu,Zijian Wang,David Lo,Binyuan Hui,Niklas Muennighoff,Daniel Fried,Xiaoning Du,Harm de Vries,Leandro Von Werra
発行日 2024-10-07 17:23:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.SE パーマリンク