要約
大規模な言語モデル(LLMS)の最近の進歩は、機能レベルのコード生成に有望であることを示していますが、リポジトリレベルのソフトウェアエンジニアリングタスクは依然として困難です。
現在のソリューションは、主に独自のLLMエージェントに依存しており、予測不可能性を導入し、アクセシビリティを制限し、データプライバシーとモデルのカスタマイズに関する懸念を引き起こします。
このペーパーでは、オープンソースLLMSがエージェントベースのアプローチを必要とせずにリポジトリレベルのタスクに効果的に対処できるかどうかを調査します。
これは、LLMがセマンティック情報と構造依存関係を介してコードベース内の機能とファイルを理解できるようにすることで可能であることを示します。
この目的のために、リポジトリコードグラフ構造をLLMの注意メカニズムに統合し、特殊なアダプターを使用してLLMの入力スペースにマップノード属性を統合するコードグラフモデル(CGM)を導入します。
エージェントレスグラフラグフレームワークと組み合わせると、オープンソースQWEN2.5-72Bモデルを使用して、SWEベンチライトベンチマークで43.00%の解像度率を達成します。
このパフォーマンスは、オープンウェイトモデルの中で1位、オープンソースシステムを備えた方法の中で2番目にランクされ、全体で8番目にランク付けされ、以前のベストオープンソースベースのメソッドを12.33%上回ります。
要約(オリジナル)
Recent advances in Large Language Models (LLMs) have shown promise in function-level code generation, yet repository-level software engineering tasks remain challenging. Current solutions predominantly rely on proprietary LLM agents, which introduce unpredictability and limit accessibility, raising concerns about data privacy and model customization. This paper investigates whether open-source LLMs can effectively address repository-level tasks without requiring agent-based approaches. We demonstrate this is possible by enabling LLMs to comprehend functions and files within codebases through their semantic information and structural dependencies. To this end, we introduce Code Graph Models (CGMs), which integrate repository code graph structures into the LLM’s attention mechanism and map node attributes to the LLM’s input space using a specialized adapter. When combined with an agentless graph RAG framework, our approach achieves a 43.00% resolution rate on the SWE-bench Lite benchmark using the open-source Qwen2.5-72B model. This performance ranks first among open weight models, second among methods with open-source systems, and eighth overall, surpassing the previous best open-source model-based method by 12.33%.
arxiv情報
著者 | Hongyuan Tao,Ying Zhang,Zhenhao Tang,Hongen Peng,Xukun Zhu,Bingchang Liu,Yingguang Yang,Ziyin Zhang,Zhaogui Xu,Haipeng Zhang,Linchao Zhu,Rui Wang,Hang Yu,Jianguo Li,Peng Di |
発行日 | 2025-05-22 17:00:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google