要約
最新のソフトウェアの複雑さは、ソフトウェアのバグの検出と修正に関連する時間とコストの大幅な増加につながっています。
これに対応して、研究者はバグのあるコードの修正を自動的に生成するためのさまざまな方法を検討してきました。
ただし、特定のバグに対して可能な修正の組み合わせ空間が大きいため、モデルによって生成された修正を効果的に評価するために使用できるツールとデータセットはほとんどありません。
この問題に対処するために、FixEval を導入しました。これは、競合するプログラミングの問題に対するバグのあるコードの送信と、それに対応する修正で構成されるベンチマークです。
FixEval は、モデルによって生成されたプログラム修正の正確性を評価し、時間、メモリの制約、および判定に基づく受け入れに関する詳細情報を評価するための単体テストの広範なコレクションを提供します。
プログラミング言語で事前トレーニングされた 2 つの Transformer 言語モデルをベースラインと見なし、一致ベースおよび実行ベースの評価指標を使用してそれらを比較します。
私たちの実験では、一致ベースのメトリクスは、モデルによって生成されたプログラムの修正を正確に反映していないことが示されています。
同時に、実行ベースの方法は、そのソリューションのために明示的に設計されたすべてのケースとシナリオを通じてプログラムを評価します。
したがって、FixEval は、現実世界の自動バグ修正とモデル生成コード評価への一歩を提供すると考えています。
データセットとモデルは、https://github.com/mahimanzum/FixEval でオープンソース化されています。
要約(オリジナル)
The complexity of modern software has led to a drastic increase in the time and cost associated with detecting and rectifying software bugs. In response, researchers have explored various methods to automatically generate fixes for buggy code. However, due to the large combinatorial space of possible fixes for any given bug, few tools and datasets are available to evaluate model-generated fixes effectively. To address this issue, we introduce FixEval, a benchmark comprising of buggy code submissions to competitive programming problems and their corresponding fixes. FixEval offers an extensive collection of unit tests to evaluate the correctness of model-generated program fixes and assess further information regarding time, memory constraints, and acceptance based on a verdict. We consider two Transformer language models pretrained on programming languages as our baseline and compare them using match-based and execution-based evaluation metrics. Our experiments show that match-based metrics do not reflect model-generated program fixes accurately. At the same time, execution-based methods evaluate programs through all cases and scenarios designed explicitly for that solution. Therefore, we believe FixEval provides a step towards real-world automatic bug fixing and model-generated code evaluation. The dataset and models are open-sourced at https://github.com/mahimanzum/FixEval.
arxiv情報
著者 | Md Mahim Anjum Haque,Wasi Uddin Ahmad,Ismini Lourentzou,Chris Brown |
発行日 | 2023-03-30 14:30:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google