APIContext2Com: Code Comment Generation by Incorporating Pre-Defined API Documentation

要約

コードコメントは、ソフトウェアプログラムの理解に大きく役立ち、また、開発者がソフトウェアのメンテナンスに要する時間を大幅に短縮することができる。コードコメント生成は、コードスニペットから自然言語によるコメントを自動的に予測することを目的としている。いくつかの研究では、外部知識を統合することが生成されるコメントの品質に与える影響について研究されている。本研究では、事前に定義されたAPI(Application Programming Interface)コンテキストを組み込むことで、生成されたコメントの有効性を向上させるソリューション、すなわちAPIContext2Comを提案する。APIコンテキストには、コードスニペット内で使用される事前定義されたAPIの定義と説明が含まれています。詳細なAPI情報はコードスニペットの機能を表現するため、コード要約をより適切に生成するのに役立つ。我々は、seq-2-seqエンコーダー・デコーダー・ニューラルネットワークモデルを導入し、複数のエンコーダーの異なるセットを用いて、異なる入力をターゲットコメントに効果的に変換する。また、情報量の少ないAPIを除外するために、ランキング機構を開発し、無関係なAPIをフィルタリングできるようにする。CodeSearchNetのJavaデータセットを用いて、本アプローチを評価する。その結果、提案モデルは、BLEU1、BLEU2、BLEU3、BLEU4、METEOR、ROUGE-Lについて、それぞれ1.88 (8.24 %), 2.16 (17.58 %), 1.38 (18.3 %), 0.73 (14.17 %), 1.58 (14.98 %) と1.9 (6.92 %) でベストベースラインを改善することが明らかになりました。人間による評価とアブレーション試験により、生成されたコメントの品質と、アーキテクチャとランキングAPIの効果が確認されました。

要約(オリジナル)

Code comments are significantly helpful in comprehending software programs and also aid developers to save a great deal of time in software maintenance. Code comment generation aims to automatically predict comments in natural language given a code snippet. Several works investigate the effect of integrating external knowledge on the quality of generated comments. In this study, we propose a solution, namely APIContext2Com, to improve the effectiveness of generated comments by incorporating the pre-defined Application Programming Interface (API) context. The API context includes the definition and description of the pre-defined APIs that are used within the code snippets. As the detailed API information expresses the functionality of a code snippet, it can be helpful in better generating the code summary. We introduce a seq-2-seq encoder-decoder neural network model with different sets of multiple encoders to effectively transform distinct inputs into target comments. A ranking mechanism is also developed to exclude non-informative APIs, so that we can filter out unrelated APIs. We evaluate our approach using the Java dataset from CodeSearchNet. The findings reveal that the proposed model improves the best baseline by 1.88 (8.24 %), 2.16 (17.58 %), 1.38 (18.3 %), 0.73 (14.17 %), 1.58 (14.98 %) and 1.9 (6.92 %) for BLEU1, BLEU2, BLEU3, BLEU4, METEOR, ROUGE-L respectively. Human evaluation and ablation studies confirm the quality of the generated comments and the effect of architecture and ranking APIs.

arxiv情報

著者 Ramin Shahbazi,Fatemeh Fard
発行日 2023-03-03 00:38:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.LG, cs.SE パーマリンク