Automated Code generation for Information Technology Tasks in YAML through Large Language Models

要約

大規模な言語モデルの使用によるコード生成機能の最近の向上は、主に汎用プログラミング言語に恩恵をもたらしています。
IT オートメーションに使用される言語などのドメイン固有言語は、多くの活発な開発者が関与しており、最新のクラウド プラットフォームの不可欠なコンポーネントであるにもかかわらず、あまり注目されていません。
この作業は、IT オートメーションに広く使用されているマークアップ言語である Ansible-YAML の生成に焦点を当てています。
IT 自動化の生産性向上を目的とした、自然言語から Ansible-YAML コード生成ツールである Ansible Wisdom を紹介します。
Ansible Wisdom は、Ansible-YAML を含む新しいデータセットを使用したトレーニングによって拡張されたトランスフォーマーベースのモデルです。
また、このドメインの固有の特性を捉えるために、YAML と Ansible 用の 2 つの新しいパフォーマンス メトリクスも開発しました。
結果は、Ansible Wisdom が既存の最先端のコード生成モデルと同等以上のパフォーマンスで自然言語プロンプトから Ansible スクリプトを正確に生成できることを示しています。
少数ショット設定では、Ansible、YAML データを使用したトレーニングの影響を評価し、Codex-Davinci-002 を含むさまざまなベースラインと比較します。
また、微調整後、Ansible 固有のモデルが、少数のショット設定ではるかに大きな Codex-Davinci-002 のパフォーマンスを上回ることができることも示します。

要約(オリジナル)

The recent improvement in code generation capabilities due to the use of large language models has mainly benefited general purpose programming languages. Domain specific languages, such as the ones used for IT Automation, have received far less attention, despite involving many active developers and being an essential component of modern cloud platforms. This work focuses on the generation of Ansible-YAML, a widely used markup language for IT Automation. We present Ansible Wisdom, a natural-language to Ansible-YAML code generation tool, aimed at improving IT automation productivity. Ansible Wisdom is a transformer-based model, extended by training with a new dataset containing Ansible-YAML. We also develop two novel performance metrics for YAML and Ansible to capture the specific characteristics of this domain. Results show that Ansible Wisdom can accurately generate Ansible script from natural language prompts with performance comparable or better than existing state of the art code generation models. In few-shot settings we asses the impact of training with Ansible, YAML data and compare with different baselines including Codex-Davinci-002. We also show that after finetuning, our Ansible specific model can beat the performance of a much larger Codex-Davinci-002 in few shot settings.

arxiv情報

著者 Saurabh Pujar,Luca Buratti,Xiaojie Guo,Nicolas Dupuis,Burn Lewis,Sahil Suneja,Atin Sood,Ganesh Nalawade,Matthew Jones,Alessandro Morari,Ruchir Puri
発行日 2023-05-16 10:55:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.PL, cs.SE パーマリンク