RLTF: Reinforcement Learning from Unit Test Feedback

要約

プログラム合成、つまりコード生成の目標は、指定された記述に基づいて実行可能コードを生成することです。
最近、コードの大規模言語モデル (LLM) のパフォーマンスを向上させるために強化学習 (RL) を採用する研究が増えています。
ただし、これらの RL 手法ではオフライン フレームワークのみが使用されており、新しいサンプル空間の探索が制限されています。
さらに、単体テスト信号を利用する現在のアプローチはかなり単純であり、コード内の特定のエラー位置を考慮していません。
これらの問題に対処するために、私たちは、コード LLM を改良するための複数粒度の単体テスト フィードバックを備えた新しいオンライン RL フレームワークである RLTF (単体テスト フィードバックからの強化学習) を提案しました。
私たちのアプローチは、トレーニング中にリアルタイムでデータを生成し、同時にきめの細かいフィードバック信号を利用してモデルをより高品質なコードの生成に導きます。
広範な実験により、RLTF が APPS および MBPP ベンチマークで最先端のパフォーマンスを達成することが示されています。
私たちのコードは https://github.com/Zyq-scut/RLTF にあります。

要約(オリジナル)

The goal of program synthesis, or code generation, is to generate executable code based on given descriptions. Recently, there has been an increasing number of studies employing reinforcement learning (RL) to improve the performance of large language models (LLMs) for code. However, these RL methods have only used offline frameworks, limiting their exploration of new sample spaces. Additionally, current approaches that utilize unit test signals are rather simple, not accounting for specific error locations within the code. To address these issues, we proposed RLTF, i.e., Reinforcement Learning from Unit Test Feedback, a novel online RL framework with unit test feedback of multi-granularity for refining code LLMs. Our approach generates data in real-time during training and simultaneously utilizes fine-grained feedback signals to guide the model towards producing higher-quality code. Extensive experiments show that RLTF achieves state-of-the-art performance on the APPS and the MBPP benchmarks. Our code can be found at: https://github.com/Zyq-scut/RLTF.

arxiv情報

著者 Jiate Liu,Yiqin Zhu,Kaiwen Xiao,Qiang Fu,Xiao Han,Wei Yang,Deheng Ye
発行日 2023-07-10 05:18:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク