CoSIL: Software Issue Localization via LLM-Driven Code Repository Graph Searching

要約

大規模な言語モデル(LLMS)は、自律的なソフトウェアエンジニアリングを大幅に進めており、開発者が自動プログラム修復を支援するソフトウェアエンジニアリングエージェントの数が増えています。
問題のローカリゼーションは、正確なパッチ生成の基礎を形成します。
ただし、LLMのコンテキストウィンドウの長さによって引き起こされる制限のため、既存の問題のローカリゼーション方法は、簡潔で効果的なコンテキストと適切に包括的な検索スペースのバランスをとる際の課題に直面しています。
このホワイトペーパーでは、トレーニングやインデックスを作成せずにLLM駆動型でシンプルで強力な機能レベルの発行ローカリゼーション方法であるCosilを紹介します。
COSILは、モジュールコールグラフを介して検索空間を減らし、関数コールグラフを繰り返し検索して関連するコンテキストを取得し、コンテキストを使用して検索方向を制御し、コンテキストを効果的に管理します。
重要なことに、コールグラフは検索中にLLMによって動的に構築され、事前抑制の必要性を排除することです。
実験結果は、COSILがQWEN2.5 Coder 32Bを使用して、それぞれSWE Bench LiteとSWE Benchが検証し、既存の方法を8.6〜98.2%上回る、それぞれ43%と44.6%のトップ1ローカリゼーション成功率を達成したことを示しています。
COSILがパッチ生成段階を導くために適用されると、解決速度はさらに9.3〜31.5%向上します。

要約(オリジナル)

Large language models (LLMs) have significantly advanced autonomous software engineering, leading to a growing number of software engineering agents that assist developers in automatic program repair. Issue localization forms the basis for accurate patch generation. However, because of limitations caused by the context window length of LLMs, existing issue localization methods face challenges in balancing concise yet effective contexts and adequately comprehensive search spaces. In this paper, we introduce CoSIL, an LLM driven, simple yet powerful function level issue localization method without training or indexing. CoSIL reduces the search space through module call graphs, iteratively searches the function call graph to obtain relevant contexts, and uses context pruning to control the search direction and manage contexts effectively. Importantly, the call graph is dynamically constructed by the LLM during search, eliminating the need for pre-parsing. Experiment results demonstrate that CoSIL achieves a Top-1 localization success rate of 43 percent and 44.6 percent on SWE bench Lite and SWE bench Verified, respectively, using Qwen2.5 Coder 32B, outperforming existing methods by 8.6 to 98.2 percent. When CoSIL is applied to guide the patch generation stage, the resolved rate further improves by 9.3 to 31.5 percent.

arxiv情報

著者 Zhonghao Jiang,Xiaoxue Ren,Meng Yan,Wei Jiang,Yong Li,Zhongxin Liu
発行日 2025-03-28 13:36:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.SE パーマリンク