要約
進化し続ける機械学習の状況において、自然言語記述を実行可能コードにシームレスに変換することは依然として大きな課題です。
このペーパーでは、高レベルのデータ整形命令を通じて自然言語タスクの記述をコードに繰り返し変換する動的パイプラインを展開することで、この課題に取り組むように設計された革新的なフレームワークである Linguacodus を紹介します。
Linguacodus の中核は、さまざまな問題に対する多様な解決策を評価し、特定のタスクに最も適したものを選択することができる、微調整された大規模言語モデル (LLM) です。
このペーパーでは、微調整プロセスについて詳しく説明し、自然言語記述を関数コードに変換する方法を明らかにします。
Linguacodus は、自動コード生成に向けた大幅な進歩を表し、タスクの説明と実行可能コードの間のギャップを効果的に橋渡しします。
これは、さまざまなドメインにわたる機械学習アプリケーションの進歩に大きな期待をもたらします。
さらに、人間の介入を最小限に抑えて、ML タスクの自然な記述をコードに変換できるアルゴリズムを提案します。
Kaggle に由来する膨大な機械学習コード データセットに対する広範な実験で、Linguacodus の有効性を実証しました。
この調査では、さまざまな分野にわたるその潜在的な応用例が明らかになり、さまざまな科学分野における応用機械学習への影響が強調されています。
要約(オリジナル)
In the ever-evolving landscape of machine learning, seamless translation of natural language descriptions into executable code remains a formidable challenge. This paper introduces Linguacodus, an innovative framework designed to tackle this challenge by deploying a dynamic pipeline that iteratively transforms natural language task descriptions into code through high-level data-shaping instructions. The core of Linguacodus is a fine-tuned large language model (LLM), empowered to evaluate diverse solutions for various problems and select the most fitting one for a given task. This paper details the fine-tuning process, and sheds light on how natural language descriptions can be translated into functional code. Linguacodus represents a substantial leap towards automated code generation, effectively bridging the gap between task descriptions and executable code. It holds great promise for advancing machine learning applications across diverse domains. Additionally, we propose an algorithm capable of transforming a natural description of an ML task into code with minimal human interaction. In extensive experiments on a vast machine learning code dataset originating from Kaggle, we showcase the effectiveness of Linguacodus. The investigations highlight its potential applications across diverse domains, emphasizing its impact on applied machine learning in various scientific fields.
arxiv情報
著者 | Ekaterina Trofimova,Emil Sataev,Andrey E. Ustyuzhanin |
発行日 | 2024-11-21 16:28:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google