要約
ラグランジュ緩和は、最適化問題の制約を緩和するために使用される多用途の数学的手法であり、制約プログラミング (重み付き回路制約など) での実行可能な解の最適性と効率的なプロパゲータの設計を証明するための双対境界の生成を可能にします。
ただし、ラグランジュ乗数を導出する従来のプロセス (例: 準勾配法を使用) は多くの場合、計算量が多く、大規模な問題や時間に敏感な問題に対する実用性が制限されます。
この課題に対処するために、グラフ ニューラル ネットワークの機能を利用して問題構造を活用し、正確なラグランジュ乗数を効率的に生成することを目的とした、革新的な教師なし学習アプローチを提案します。
この手法を、巡回セールスマン問題に対するよく知られたヘルド・カープのラグランジュ緩和に適用します。
中心的なアイデアは、正確なラグランジュ乗数を予測し、ヘルド カープ緩和限界を生成するためのウォーム スタートとしてそれらを使用することです。
これらの境界は、その後、分枝限定アルゴリズムによって実行されるフィルタリング プロセスを強化するために利用されます。
実行可能な解決策を見つけることに主に焦点を当てている既存の文献の多くとは対照的に、私たちのアプローチは二重の側面で機能し、学習によって最適性の証明も加速できることを示しています。
最大 200 都市のインスタンスを考慮して、メトリック巡回セールスマン問題のさまざまな分布にわたって実験を実施します。
結果は、私たちのアプローチが重み付き回路のグローバル制約のフィルタリング レベルを改善し、タイムアウトまでの未解決のインスタンスの最適性ギャップを 2 分の 1 に削減し、解決されたインスタンスの実行時間を 10% 短縮できることを示しています。
要約(オリジナル)
Lagrangian relaxation is a versatile mathematical technique employed to relax constraints in an optimization problem, enabling the generation of dual bounds to prove the optimality of feasible solutions and the design of efficient propagators in constraint programming (such as the weighted circuit constraint). However, the conventional process of deriving Lagrangian multipliers (e.g., using subgradient methods) is often computationally intensive, limiting its practicality for large-scale or time-sensitive problems. To address this challenge, we propose an innovative unsupervised learning approach that harnesses the capabilities of graph neural networks to exploit the problem structure, aiming to generate accurate Lagrangian multipliers efficiently. We apply this technique to the well-known Held-Karp Lagrangian relaxation for the travelling salesman problem. The core idea is to predict accurate Lagrangian multipliers and to employ them as a warm start for generating Held-Karp relaxation bounds. These bounds are subsequently utilized to enhance the filtering process carried out by branch-and-bound algorithms. In contrast to much of the existing literature, which primarily focuses on finding feasible solutions, our approach operates on the dual side, demonstrating that learning can also accelerate the proof of optimality. We conduct experiments across various distributions of the metric travelling salesman problem, considering instances with up to 200 cities. The results illustrate that our approach can improve the filtering level of the weighted circuit global constraint, reduce the optimality gap by a factor two for unsolved instances up to a timeout, and reduce the execution time for solved instances by 10%.
arxiv情報
著者 | Augustin Parjadis,Quentin Cappart,Bistra Dilkina,Aaron Ferber,Louis-Martin Rousseau |
発行日 | 2023-12-22 17:09:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google