要約
検索ベースのコード質問応答は、自然言語によるユーザーのクエリを関連するコード スニペットと照合しようとします。
従来のアプローチは通常、テキストとコードの表現を調整するために、細工されたバイモーダル データセットとユニモーダル データセットを使用した事前トレーニング モデルに依存していました。
このペーパーでは、StackOverflow コミュニティから抽出された大規模なプログラミング質問応答データセットである ProCQA を紹介し、自然に構造化された混合モーダル QA ペアを提供します。
その有効性を検証するために、現在のコード言語モデルのテキストとコード表現の整合性を向上させる、モダリティに依存しない対照的な事前トレーニング アプローチを提案します。
事前トレーニングのために CodeSearchNet から抽出された二峰性ペアと単峰性ペアを主に使用する以前のモデルと比較して、私たちのモデルは幅広いコード検索ベンチマークにわたって大幅なパフォーマンスの向上を示しています。
要約(オリジナル)
Retrieval-based code question answering seeks to match user queries in natural language to relevant code snippets. Previous approaches typically rely on pretraining models using crafted bi-modal and uni-modal datasets to align text and code representations. In this paper, we introduce ProCQA, a large-scale programming question answering dataset extracted from the StackOverflow community, offering naturally structured mixed-modal QA pairs. To validate its effectiveness, we propose a modality-agnostic contrastive pre-training approach to improve the alignment of text and code representations of current code language models. Compared to previous models that primarily employ bimodal and unimodal pairs extracted from CodeSearchNet for pre-training, our model exhibits significant performance improvements across a wide range of code retrieval benchmarks.
arxiv情報
著者 | Zehan Li,Jianfei Zhang,Chuantao Yin,Yuanxin Ouyang,Wenge Rong |
発行日 | 2024-03-25 12:34:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google