Improving Existing Optimization Algorithms with LLMs

要約

大規模な言語モデル(LLMS)を最適化に統合することで、強力な相乗効果が生まれ、刺激的な研究の機会が開かれました。
このペーパーでは、LLMSが既存の最適化アルゴリズムを強化する方法を調査します。
彼らの事前に訓練された知識を使用して、革新的なヒューリスティックなバリエーションと実装戦略を提案する能力を実証します。
これを評価するために、非自明の最適化アルゴリズム、構築、マージ、解決、および適応(CMSA)を適用しました。これは、ソリューション構造フェーズにヒューリスティックを組み込んだ組み合わせ最適化問題のハイブリッドメタヒューリスティックです。
我々の結果は、GPT-4oによって提案された代替のヒューリスティックが、CMSAの専門家が設計したヒューリスティックを上回り、パフォーマンスギャップが大きくて密度の高いグラフで広がっていることを示しています。
プロジェクトURL:https://imp-opt-algo-llms.surge.sh/

要約(オリジナル)

The integration of Large Language Models (LLMs) into optimization has created a powerful synergy, opening exciting research opportunities. This paper investigates how LLMs can enhance existing optimization algorithms. Using their pre-trained knowledge, we demonstrate their ability to propose innovative heuristic variations and implementation strategies. To evaluate this, we applied a non-trivial optimization algorithm, Construct, Merge, Solve and Adapt (CMSA) — a hybrid metaheuristic for combinatorial optimization problems that incorporates a heuristic in the solution construction phase. Our results show that an alternative heuristic proposed by GPT-4o outperforms the expert-designed heuristic of CMSA, with the performance gap widening on larger and denser graphs. Project URL: https://imp-opt-algo-llms.surge.sh/

arxiv情報

著者 Camilo Chacón Sartori,Christian Blum
発行日 2025-02-12 10:58:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, cs.SE, I.2.7 パーマリンク