Large Language Models for Combinatorial Optimization of Design Structure Matrix

要約

組み合わせ最適化 (CO) は、エンジニアリング アプリケーションの効率とパフォーマンスを向上させるために不可欠です。
問題のサイズが大きくなり依存関係が複雑になるにつれて複雑さが増し、最適なソリューションを特定することが困難になります。
現実世界のエンジニアリング問題に関しては、純粋な数学的推論に基づくアルゴリズムには限界があり、最適化に必要な文脈上のニュアンスを捉えることができません。
この研究では、大規模言語モデル (LLM) の推論力と文脈知識を活用してエンジニアリング CO 問題を解決する際の可能性を探ります。
私たちは、ネットワーク トポロジとドメインの知識を統合して、CO の一般的な問題である設計構造マトリックス (DSM) の順序付けを最適化する、新しい LLM ベースのフレームワークを提案します。
さまざまな DSM ケースでの実験により、提案された方法がベンチマーク方法よりも高速な収束とより高い解の品質を達成することが実証されました。
さらに、結果は、コンテキスト ドメインの知識を組み込むと、LLM の選択にもかかわらずパフォーマンスが大幅に向上することを示しています。
これらの発見は、意味論的推論と数学的推論を組み合わせることで、現実世界の複雑な CO 問題に取り組む LLM の可能性を浮き彫りにしています。
このアプローチは、現実世界の組み合わせ最適化における新しいパラダイムへの道を開きます。

要約(オリジナル)

Combinatorial optimization (CO) is essential for improving efficiency and performance in engineering applications. As complexity increases with larger problem sizes and more intricate dependencies, identifying the optimal solution become challenging. When it comes to real-world engineering problems, algorithms based on pure mathematical reasoning are limited and incapable to capture the contextual nuances necessary for optimization. This study explores the potential of Large Language Models (LLMs) in solving engineering CO problems by leveraging their reasoning power and contextual knowledge. We propose a novel LLM-based framework that integrates network topology and domain knowledge to optimize the sequencing of Design Structure Matrix (DSM)-a common CO problem. Our experiments on various DSM cases demonstrate that the proposed method achieves faster convergence and higher solution quality than benchmark methods. Moreover, results show that incorporating contextual domain knowledge significantly improves performance despite the choice of LLMs. These findings highlight the potential of LLMs in tackling complex real-world CO problems by combining semantic and mathematical reasoning. This approach paves the way for a new paradigm in in real-world combinatorial optimization.

arxiv情報

著者 Shuo Jiang,Min Xie,Jianxi Luo
発行日 2024-11-19 15:39:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CE, cs.CL, I.2.1 パーマリンク