GrACE: Generation using Associated Code Edits

要約

開発者は、バグ修正や新機能の追加など、さまざまな理由でコードの編集にかなりの時間を費やします。
コード編集を予測するための効果的な方法を設計することは、コード編集の多様性と開発者の意図を捉えるのが難しいため、活発ではありますが、困難な研究分野となっています。
この研究では、事前にトレーニングされたコードの大規模言語モデル (LLM) に事前の関連する編集の知識を与えることで、これらの課題に対処します。
LLM の生成機能は、コード変更の多様性に対処するのに役立ち、事前の編集に基づいてコード生成を調整することで、潜在的な開発者の意図を捉えるのに役立ちます。
2 つのよく知られた LLM、Codex と CodeT5 をそれぞれゼロショット設定と微調整設定で評価します。
2 つのデータセットを使用した実験では、以前の編集の知識により LLM のパフォーマンスが大幅に向上し、現在の最先端のシンボリック コードと比較して、トップ 1 の提案で 29% および 54% 多く正しく編集されたコードを生成できるようになりました。
とニューラルなアプローチです。

要約(オリジナル)

Developers expend a significant amount of time in editing code for a variety of reasons such as bug fixing or adding new features. Designing effective methods to predict code edits has been an active yet challenging area of research due to the diversity of code edits and the difficulty of capturing the developer intent. In this work, we address these challenges by endowing pre-trained large language models (LLMs) of code with the knowledge of prior, relevant edits. The generative capability of the LLMs helps address the diversity in code changes and conditioning code generation on prior edits helps capture the latent developer intent. We evaluate two well-known LLMs, Codex and CodeT5, in zero-shot and fine-tuning settings respectively. In our experiments with two datasets, the knowledge of prior edits boosts the performance of the LLMs significantly and enables them to generate 29% and 54% more correctly edited code in top-1 suggestions relative to the current state-of-the-art symbolic and neural approaches, respectively.

arxiv情報

著者 Priyanshu Gupta,Avishree Khare,Yasharth Bajpai,Saikat Chakraborty,Sumit Gulwani,Aditya Kanade,Arjun Radhakrishna,Gustavo Soares,Ashish Tiwari
発行日 2023-05-24 03:25:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SE パーマリンク