Towards graph neural networks for provably solving convex optimization problems

要約

近年、メッセージパッシンググラフニューラルネットワーク(MPNN)は、変数と制約の相互作用を捉えることができるため、組合せ最適化問題や連続最適化問題を解くための可能性を示している。既存のアプローチでは、MPNNを活用して近似解を求めたり、従来のソルバーをウォームスタートさせたりしているが、特に凸最適化の設定では、実現可能性の保証に欠けることが多い。ここでは、証明可能な実行可能性を保証した凸最適化問題を解くための反復MPNNフレームワークを提案する。まず、MPNNが線形制約を持つ2次問題を解くための標準的な内点法を証明的にシミュレートできることを示し、SVMのような関連する問題をカバーする。次に、実行可能性を保証するために、実行可能点から開始し、実行可能領域内で探索を反復的に制限する変形を導入する。実験の結果、我々のアプローチは、解の品質と実現可能性において既存のニューラルベースラインを凌駕し、未知の問題サイズによく一般化し、場合によってはGurobiのような最先端のソルバーよりも速い解時間を達成することが示された。

要約(オリジナル)

Recently, message-passing graph neural networks (MPNNs) have shown potential for solving combinatorial and continuous optimization problems due to their ability to capture variable-constraint interactions. While existing approaches leverage MPNNs to approximate solutions or warm-start traditional solvers, they often lack guarantees for feasibility, particularly in convex optimization settings. Here, we propose an iterative MPNN framework to solve convex optimization problems with provable feasibility guarantees. First, we demonstrate that MPNNs can provably simulate standard interior-point methods for solving quadratic problems with linear constraints, covering relevant problems such as SVMs. Secondly, to ensure feasibility, we introduce a variant that starts from a feasible point and iteratively restricts the search within the feasible region. Experimental results show that our approach outperforms existing neural baselines in solution quality and feasibility, generalizes well to unseen problem sizes, and, in some cases, achieves faster solution times than state-of-the-art solvers such as Gurobi.

arxiv情報

著者 Chendi Qian,Christopher Morris
発行日 2025-02-04 16:11:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.NE パーマリンク