ORLM: A Customizable Framework in Training Large Models for Automated Optimization Modeling

要約

最適化モデリングは、実世界の問題に対処するためのオペレーションズリサーチ(OR)ツールの適用において重要な役割を果たすが、ORの専門家による広範な専門知識が必要とされる難題である。大規模言語モデル(LLM)の出現により、このようなタスクを合理化・自動化する新たな機会が出現した。しかし、現在の研究は、GPT-4のようなクローズドソースのLLMと、広範なプロンプトエンジニアリング技術に依存している。このような依存は、最適化モデリングのための高品質なトレーニングデータセットが少ないことに起因しており、その結果、コストの上昇、処理時間の長期化、プライバシーの問題が生じている。これらの課題に対処するため、我々の研究は、最適化モデリングとソルバーコードの開発が可能なオープンソースのLLMをトレーニングするための実行可能な経路を初めて提案し、最終的に最適化モデリングと解法の自動化に優れた能力をもたらす。特に、最適化モデリングのための半自動データ合成フレームワークである「sc OR-Instruct」を設計し、特定のシナリオやモデル・タイプのためにカスタマイズ可能な機能拡張を可能にします。また、本研究では、実用的なOR問題を解くLLMを評価する最初の産業ベンチマークであるIndustryORを導入する。合成されたデータを用いて7BスケールのオープンソースLLM(ORLMs{https://github.com/Cardinal-Operations/ORLM}と呼ばれる)をいくつか訓練し、NL4OPT、MAMO、およびIndustryORベンチマークにおいて競争力のある性能を達成し、最適化モデリング能力が大幅に向上したことを示す。さらに、我々の実験は、ORLMの性能をさらに向上させるスケーリング則と強化学習の可能性を強調している。また、実用的な産業アプリケーションにおけるORLMのワークフローと人間と機械のインタラクション・パラダイムについても論じている。

要約(オリジナル)

Optimization modeling plays a critical role in the application of Operations Research (OR) tools to address real-world problems, yet they pose challenges and require extensive expertise from OR experts. With the advent of large language models (LLMs), new opportunities have emerged to streamline and automate such task. However, current research predominantly relies on closed-source LLMs such as GPT-4, along with extensive prompt engineering techniques. This reliance stems from the scarcity of high-quality training datasets for optimization modeling, resulting in elevated costs, prolonged processing times, and privacy concerns. To address these challenges, our work is the first to propose a viable path for training open-source LLMs that are capable of optimization modeling and developing solver codes, eventually leading to a superior ability for automating optimization modeling and solving. Particularly, we design the {\sc OR-Instruct}, a semi-automated data synthesis framework for optimization modeling that enables customizable enhancements for specific scenarios or model types. This work also introduces IndustryOR, the first industrial benchmark for evaluating LLMs in solving practical OR problems. We train several 7B-scale open-source LLMs using synthesized data (dubbed ORLMs{https://github.com/Cardinal-Operations/ORLM}), which exhibit significantly enhanced optimization modeling capabilities, achieving competitive performance across the NL4OPT, MAMO, and IndustryOR benchmarks. Additionally, our experiments highlight the potential of scaling law and reinforcement learning to further enhance the performance of ORLMs. The workflows and human-machine interaction paradigms of ORLMs in practical industrial applications are also discussed in the paper.

arxiv情報

著者 Chenyu Huang,Zhengyang Tang,Shixi Hu,Ruoqing Jiang,Xin Zheng,Dongdong Ge,Benyou Wang,Zizhuo Wang
発行日 2025-04-04 13:31:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CE, cs.CL, cs.LG パーマリンク