Code LLMs: A Taxonomy-based Survey

要約

大規模言語モデル (LLM) は、さまざまな NLP タスクにわたって優れた機能を実証しており、最近ではその影響をコーディング タスクにも拡大し、自然言語 (NL) とプログラミング言語 (PL) の間のギャップを埋めています。
この分類ベースの調査は、NL-PL ドメインの LLM の包括的な分析を提供し、これらのモデルがコーディング タスクでどのように利用されるかを調査し、その方法論、アーキテクチャ、トレーニング プロセスを調査します。
私たちは、関連する概念を分類する分類法に基づいたフレームワークを提案し、この急速に進化する分野のより深い理解を促進する統一された分類システムを提供します。
この調査は、コーディング タスクにおける LLM の現状と将来の方向性 (アプリケーションと制限を含む) についての洞察を提供します。

要約(オリジナル)

Large language models (LLMs) have demonstrated remarkable capabilities across various NLP tasks and have recently expanded their impact to coding tasks, bridging the gap between natural languages (NL) and programming languages (PL). This taxonomy-based survey provides a comprehensive analysis of LLMs in the NL-PL domain, investigating how these models are utilized in coding tasks and examining their methodologies, architectures, and training processes. We propose a taxonomy-based framework that categorizes relevant concepts, providing a unified classification system to facilitate a deeper understanding of this rapidly evolving field. This survey offers insights into the current state and future directions of LLMs in coding tasks, including their applications and limitations.

arxiv情報

著者 Nishat Raihan,Christian Newman,Marcos Zampieri
発行日 2024-12-11 11:07:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク