Preference-Based Gradient Estimation for ML-Guided Approximate Combinatorial Optimization

要約

組み合わせの最適化(CO)の問題は、医学、物流、製造などの幅広いドメインにわたって発生します。
多くの場合、正確なソリューションは計算的に実行不可能ですが、多くの実用的なアプリケーションでは、特定の時間予算内で高品質のソリューションが必要です。
これに対処するために、COの既存の非学習近似アルゴリズムを強化する学習ベースのアプローチを提案します。具体的には、これらの近似アルゴリズムをパラメーター化し、グラフニューラルネットワーク(GNN)をトレーニングして、最適に近いソリューションを生成するパラメーター値を予測します。
私たちの方法は、近似アルゴリズムをブラックボックスとして扱う新しいグラデーション推定スキームを使用して、自己補助的な方法でエンドツーエンドの訓練を受けています。
このアプローチは、学習の強みと従来のアルゴリズムを組み合わせています。GNNは、データから学習してアルゴリズムをより良いソリューションに導く一方で、近似アルゴリズムは実現可能性を保証します。
2つのよく知られている組み合わせ最適化の問題、つまり巡回セールスマンの問題(TSP)とKカットの最小問題に関する方法を検証します。
我々の結果は、提案されたアプローチが最先端の学習COソルバーと競争力があることを示しています。

要約(オリジナル)

Combinatorial optimization (CO) problems arise across a broad spectrum of domains, including medicine, logistics, and manufacturing. While exact solutions are often computationally infeasible, many practical applications require high-quality solutions within a given time budget. To address this, we propose a learning-based approach that enhances existing non-learned approximation algorithms for CO. Specifically, we parameterize these approximation algorithms and train graph neural networks (GNNs) to predict parameter values that yield near-optimal solutions. Our method is trained end-to-end in a self-supervised fashion, using a novel gradient estimation scheme that treats the approximation algorithm as a black box. This approach combines the strengths of learning and traditional algorithms: the GNN learns from data to guide the algorithm toward better solutions, while the approximation algorithm ensures feasibility. We validate our method on two well-known combinatorial optimization problems: the travelling salesman problem (TSP) and the minimum k-cut problem. Our results demonstrate that the proposed approach is competitive with state-of-the-art learned CO solvers.

arxiv情報

著者 Arman Mielke,Uwe Bauknecht,Thilo Strauss,Mathias Niepert
発行日 2025-05-26 15:09:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク