Enhancing Code LLMs with Reinforcement Learning in Code Generation: A Survey

要約

大規模言語モデル (LLM) の急速な進化に伴い、強化学習 (RL) はさまざまな領域でコード生成と最適化のための極めて重要な手法として浮上しました。
このペーパーでは、コードの最適化と生成における RL の適用に関する体系的な調査を示し、コンパイラーの最適化、リソース割り当て、およびフレームワークとツールの開発の強化における RL の役割に焦点を当てます。
後続のセクションでは、最初に、RL アルゴリズムを活用して効率とリソース使用率を向上させる、コンパイラ最適化の複雑なプロセスについて詳しく説明します。
次に、議論はリソース割り当てにおける RL の機能に進み、レジスタ割り当てとシステムの最適化に重点が置かれます。
また、コード生成におけるフレームワークとツールの役割が急増していることについても調査し、その機能を強化するために RL を統合する方法を検討します。
この調査は、コード生成および最適化技術を進歩させるために RL の力を活用することに関心のある研究者や実務家のための包括的なリソースとして機能することを目的としています。

要約(オリジナル)

With the rapid evolution of large language models (LLM), reinforcement learning (RL) has emerged as a pivotal technique for code generation and optimization in various domains. This paper presents a systematic survey of the application of RL in code optimization and generation, highlighting its role in enhancing compiler optimization, resource allocation, and the development of frameworks and tools. Subsequent sections first delve into the intricate processes of compiler optimization, where RL algorithms are leveraged to improve efficiency and resource utilization. The discussion then progresses to the function of RL in resource allocation, emphasizing register allocation and system optimization. We also explore the burgeoning role of frameworks and tools in code generation, examining how RL can be integrated to bolster their capabilities. This survey aims to serve as a comprehensive resource for researchers and practitioners interested in harnessing the power of RL to advance code generation and optimization techniques.

arxiv情報

著者 Junqiao Wang,Zeng Zhang,Yangfan He,Yuyang Song,Tianyu Shi,Yuchen Li,Hengyuan Xu,Kunyu Wu,Guangwu Qian,Qiuwu Chen,Lewei He
発行日 2025-01-02 09:43:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.SE パーマリンク