要約
最近、機械学習、特にメッセージ パッシング グラフ ニューラル ネットワーク (MPNN) が、正確な最適化アルゴリズムの強化において注目を集めています。
たとえば、MPNN は、複数の線形最適化問題 (LP) の解決を必要とする、強力な分岐などの計算量の多いヒューリスティックを模倣することで、混合整数最適化問題の解決を高速化します。
経験的な成功にもかかわらず、線形最適化のエミュレーションにおける MPNN の有効性の背後にある理由はほとんど不明のままです。
ここでは、MPNN が LP の標準内点法をシミュレートできることを示し、MPNN の実際的な成功を説明します。
さらに、MPNN が LP を解決するための軽量プロキシとしてどのように機能し、特定の問題インスタンスの分布に適応できるかを強調します。
我々は、MPNN が最適性に近い標準的な組み合わせ最適化問題の LP 緩和を解き、多くの場合、従来のソルバーや競合するアプローチを解決時間で上回っていることを経験的に示しています。
要約(オリジナル)
Recently, machine learning, particularly message-passing graph neural networks (MPNNs), has gained traction in enhancing exact optimization algorithms. For example, MPNNs speed up solving mixed-integer optimization problems by imitating computational intensive heuristics like strong branching, which entails solving multiple linear optimization problems (LPs). Despite the empirical success, the reasons behind MPNNs’ effectiveness in emulating linear optimization remain largely unclear. Here, we show that MPNNs can simulate standard interior-point methods for LPs, explaining their practical success. Furthermore, we highlight how MPNNs can serve as a lightweight proxy for solving LPs, adapting to a given problem instance distribution. Empirically, we show that MPNNs solve LP relaxations of standard combinatorial optimization problems close to optimality, often surpassing conventional solvers and competing approaches in solving time.
arxiv情報
著者 | Chendi Qian,Didier Chételat,Christopher Morris |
発行日 | 2023-10-16 17:31:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google