Self-Improved Learning for Scalable Neural Combinatorial Optimization

要約

エンドツーエンドのニューラル組み合わせ最適化 (NCO) 手法は、専門家による設計を必要とせずに、複雑な組み合わせ最適化問題を解決する際に有望なパフォーマンスを示します。
しかし、既存の方法は大規模な問題に直面しており、実用化の妨げとなっています。
この制限を克服するために、この研究では、ニューラルの組み合わせ最適化のスケーラビリティを向上させるための新しい自己改善学習 (SIL) 方法を提案します。
具体的には、ラベル付きデータなしで大規模な問題インスタンスに対する直接モデル トレーニングを可能にする効率的な自己改善メカニズムを開発します。
革新的なローカル再構成アプローチを活用したこの方法は、効率的なモデル トレーニングをガイドする擬似ラベルとして、より優れたソリューションをそれ自体で繰り返し生成できます。
さらに、大規模な組み合わせ問題のインスタンスを低い計算オーバーヘッドで効率的に処理できるように、モデルの線形複雑さ注意メカニズムを設計します。
均一分布と実世界分布の両方で最大 100,000 ノードを使用した巡回セールスマン問題 (TSP) と静電容量式車両経路指定問題 (CVRP) に関する包括的な実験により、私たちの手法の優れたスケーラビリティが実証されました。

要約(オリジナル)

The end-to-end neural combinatorial optimization (NCO) method shows promising performance in solving complex combinatorial optimization problems without the need for expert design. However, existing methods struggle with large-scale problems, hindering their practical applicability. To overcome this limitation, this work proposes a novel Self-Improved Learning (SIL) method for better scalability of neural combinatorial optimization. Specifically, we develop an efficient self-improved mechanism that enables direct model training on large-scale problem instances without any labeled data. Powered by an innovative local reconstruction approach, this method can iteratively generate better solutions by itself as pseudo-labels to guide efficient model training. In addition, we design a linear complexity attention mechanism for the model to efficiently handle large-scale combinatorial problem instances with low computation overhead. Comprehensive experiments on the Travelling Salesman Problem (TSP) and the Capacitated Vehicle Routing Problem (CVRP) with up to 100K nodes in both uniform and real-world distributions demonstrate the superior scalability of our method.

arxiv情報

著者 Fu Luo,Xi Lin,Zhenkun Wang,Tong Xialiang,Mingxuan Yuan,Qingfu Zhang
発行日 2024-03-28 16:46:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク