Enhancing Robustness of AI Offensive Code Generators via Data Augmentation

要約

この研究では、セキュリティ指向のコードのコンテキストで、コード記述、つまり、善意の開発者からの自然言語 (NL) による新しい入力に摂動を追加する方法を提示し、摂動がどのように、どの程度影響するかを分析します。
AI 攻撃コードジェネレーターのパフォーマンス。
私たちの実験は、コード ジェネレーターのパフォーマンスが NL 記述の摂動によって大きく影響されることを示しています。
コードジェネレーターの堅牢性を強化するために、この方法を使用してデータ拡張を実行します。つまり、トレーニングデータの変動性と多様性を高め、摂動されたコード記述と摂動されていないコード記述の両方に対するその有効性を証明します。

要約(オリジナル)

In this work, we present a method to add perturbations to the code descriptions, i.e., new inputs in natural language (NL) from well-intentioned developers, in the context of security-oriented code, and analyze how and to what extent perturbations affect the performance of AI offensive code generators. Our experiments show that the performance of the code generators is highly affected by perturbations in the NL descriptions. To enhance the robustness of the code generators, we use the method to perform data augmentation, i.e., to increase the variability and diversity of the training data, proving its effectiveness against both perturbed and non-perturbed code descriptions.

arxiv情報

著者 Cristina Improta,Pietro Liguori,Roberto Natella,Bojan Cukic,Domenico Cotroneo
発行日 2023-06-08 10:02:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CR, cs.LG パーマリンク