Accelerating Cutting-Plane Algorithms via Reinforcement Learning Surrogates

要約

離散最適化は、混合整数計画法や組み合わせ最適化などの分野にわたる一連の $\mathcal{NP}$ 困難な問題に属します。
凸離散最適化問題を解決するための現在の標準的なアプローチは、切断面アルゴリズムを使用することです。これは、 \textit{cuts} として知られる不等式を繰り返し追加して実行可能な集合を絞り込むことによって最適な解に到達します。
多数の汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は依然として扱いにくいという問題に悩まされています。
この研究では、強化学習によって切断面アルゴリズムを高速化する方法を提案します。
私たちのアプローチは、(i) 収束を加速し、(ii) 最適性の保証を維持する方法で、学習されたポリシーをカット生成手順の $\mathcal{NP}$-hard 要素の代理として使用します。
私たちは、切断面アルゴリズムが一般的に使用される 2 つのタイプの問題、確率的最適化と混合整数二次計画法にこの方法を適用します。
ベンダー分解 (確率的最適化) と反復損失近似 (二次計画法) に適用した場合、私たちの手法の利点が観察され、最新の代替アルゴリズムと比較して最大 $45\%$ 高速な平均収束を達成しました。

要約(オリジナル)

Discrete optimization belongs to the set of $\mathcal{NP}$-hard problems, spanning fields such as mixed-integer programming and combinatorial optimization. A current standard approach to solving convex discrete optimization problems is the use of cutting-plane algorithms, which reach optimal solutions by iteratively adding inequalities known as \textit{cuts} to refine a feasible set. Despite the existence of a number of general-purpose cut-generating algorithms, large-scale discrete optimization problems continue to suffer from intractability. In this work, we propose a method for accelerating cutting-plane algorithms via reinforcement learning. Our approach uses learned policies as surrogates for $\mathcal{NP}$-hard elements of the cut generating procedure in a way that (i) accelerates convergence, and (ii) retains guarantees of optimality. We apply our method on two types of problems where cutting-plane algorithms are commonly used: stochastic optimization, and mixed-integer quadratic programming. We observe the benefits of our method when applied to Benders decomposition (stochastic optimization) and iterative loss approximation (quadratic programming), achieving up to $45\%$ faster average convergence when compared to modern alternative algorithms.

arxiv情報

著者 Kyle Mana,Fernando Acero,Stephen Mak,Parisa Zehtabi,Michael Cashmore,Daniele Magazzeni,Manuela Veloso
発行日 2024-02-27 18:55:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, math.OC パーマリンク