Preference-Based Gradient Estimation for ML-Based Approximate Combinatorial Optimization

要約

組み合わせの最適化(CO)の問題は、医学から物流や製造まで、広範囲の分野で発生します。
多くの場合、正確なソリューションは必要ありませんが、多くのアプリケーションでは高品質のソリューションを迅速に見つける必要があります。
この目的のために、COの既存の非学習非学習近似アルゴリズムを改善するためのデータ駆動型アプローチを提案します。近似アルゴリズムをパラメーター化し、グラフニューラルネットワーク(GNN)をトレーニングして、可能な限り最良のソリューションにつながるパラメーター値を予測します。
私たちのパイプラインは、グラデーション推定を使用して自己監視された方法でエンドツーエンドを訓練し、近似アルゴリズムをブラックボックスとして扱います。
この目的のための新しい勾配推定スキームを提案します。これは、優先順位に基づいた勾配推定と呼ばれます。
私たちのアプローチは、ニューラルネットワークと非学習近似アルゴリズムの利点を組み合わせています。GNNはデータセットから情報を活用して、近似アルゴリズムがより良いソリューションを見つけることを可能にしますが、近似アルゴリズムはソリューションが実現可能であることを保証します。
私たちは、2つのよく知られている組み合わせ最適化の問題、旅行セールスマンの問題と最小Kカットの問題に関するアプローチを検証し、私たちの方法が最先端の学習COソルバーと競争していることを示しています。

要約(オリジナル)

Combinatorial optimization (CO) problems arise in a wide range of fields from medicine to logistics and manufacturing. While exact solutions are often not necessary, many applications require finding high-quality solutions quickly. For this purpose, we propose a data-driven approach to improve existing non-learned approximation algorithms for CO. We parameterize the approximation algorithm and train a graph neural network (GNN) to predict parameter values that lead to the best possible solutions. Our pipeline is trained end-to-end in a self-supervised fashion using gradient estimation, treating the approximation algorithm as a black box. We propose a novel gradient estimation scheme for this purpose, which we call preference-based gradient estimation. Our approach combines the benefits of the neural network and the non-learned approximation algorithm: The GNN leverages the information from the dataset to allow the approximation algorithm to find better solutions, while the approximation algorithm guarantees that the solution is feasible. We validate our approach on two well-known combinatorial optimization problems, the travelling salesman problem and the minimum k-cut problem, and show that our method is competitive with state of the art learned CO solvers.

arxiv情報

著者 Arman Mielke,Uwe Bauknecht,Thilo Strauss,Mathias Niepert
発行日 2025-02-26 18:23:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク