要約
タイトル:Generative Pre-trained Transformerを用いた自動最適化モデル生成モデルの構築
要約:
– 本論文は、Generative Pre-trained Transformerを使用して最適化モデルを自動生成するための枠組みを提供している。
– 枠組みには、最適化モデルが持つべき特徴を指定し、言語モデルを使用して初期バージョンのモデルを生成することが含まれる。
– モデルは検証され、ビルドエラーが含まれている場合は、自動編集プロセスがトリガーされる。
– 実験では、MiniZincをターゲット言語とし、2つのGPT-3.5言語モデルを使用した。
– 結果は、最適化モデルの生成に言語モデルを使用することが可能であり、一部のモデルは要求された仕様を満たしているが、別のモデルは改善の余地があることを示している。
– この研究は、最適化問題のモデリングに言語モデルを使用する可能性を示し、将来研究のための方向性を提唱している。
要約(オリジナル)
This article presents a framework for generating optimisation models using a pre-trained generative transformer. The framework involves specifying the features that the optimisation model should have and using a language model to generate an initial version of the model. The model is then tested and validated, and if it contains build errors, an automatic edition process is triggered. An experiment was performed using MiniZinc as the target language and two GPT-3.5 language models for generation and debugging. The results show that the use of language models for the generation of optimisation models is feasible, with some models satisfying the requested specifications, while others require further refinement. The study provides promising evidence for the use of language models in the modelling of optimisation problems and suggests avenues for future research.
arxiv情報
著者 | Boris Almonacid |
発行日 | 2023-05-09 23:51:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI