code_transformed: The Influence of Large Language Models on Code

要約

コーディングは、人間と機械の間の相互作用の最も基本的なモードの1つです。
大規模な言語モデル(LLMS)の急速な進歩により、コード生成機能はプログラミングプラクティスを大幅に再構築し始めました。
この開発により、中心的な質問が促されます。LLMSはコードスタイルを変換しましたか?また、そのような変換をどのように特徴付けることができますか?
この論文では、コードスタイルに対するLLMの影響を調査する先駆的な研究を提示し、義務の義務、複雑さ、保守性、および類似性に焦点を当てています。
2020年から2025年の間に公開されたARXIVペーパーにリンクされた19,000を超えるGithubリポジトリのコードを分析することにより、LLM生成コードの特性と整合するコーディングスタイルの進化における測定可能な傾向を特定します。
たとえば、PythonコードのSnake \ _Case変数名の割合は、2023年第1四半期の47%から2025四半期の51%に増加しました。さらに、LLMSが推論プロセスを調べてアルゴリズムの問​​題にどのようにアプローチするかを調査します。
LLMSの多様性と使用シナリオの多様性を考えると、他の要因の中でも、LLMSによって生成または支援されたコードの割合を正確に推定することは困難または不可能です。
実験結果は、LLMが実際のプログラミングスタイルに影響するという最初の大規模な経験的証拠を提供します。

要約(オリジナル)

Coding remains one of the most fundamental modes of interaction between humans and machines. With the rapid advancement of Large Language Models (LLMs), code generation capabilities have begun to significantly reshape programming practices. This development prompts a central question: Have LLMs transformed code style, and how can such transformation be characterized? In this paper, we present a pioneering study that investigates the impact of LLMs on code style, with a focus on naming conventions, complexity, maintainability, and similarity. By analyzing code from over 19,000 GitHub repositories linked to arXiv papers published between 2020 and 2025, we identify measurable trends in the evolution of coding style that align with characteristics of LLM-generated code. For instance, the proportion of snake\_case variable names in Python code increased from 47% in Q1 2023 to 51% in Q1 2025. Furthermore, we investigate how LLMs approach algorithmic problems by examining their reasoning processes. Given the diversity of LLMs and usage scenarios, among other factors, it is difficult or even impossible to precisely estimate the proportion of code generated or assisted by LLMs. Our experimental results provide the first large-scale empirical evidence that LLMs affect real-world programming style.

arxiv情報

著者 Yuliang Xu,Siming Huang,Mingmeng Geng,Yao Wan,Xuanhua Shi,Dongping Chen
発行日 2025-06-13 17:59:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, cs.SE パーマリンク