Optimal Low-Rank Matrix Completion: Semidefinite Relaxations and Eigenvector Disjunctions

要約

低ランク行列の補完は、与えられた一連の観測値を可能な限り正確に復元する、最小限の複雑さの行列を計算することで構成されます。
残念ながら、行列を完成させるための既存の方法はヒューリスティックであり、拡張性が高く、多くの場合高品質のソリューションを特定しますが、最適性の保証はありません。
私たちは最適性を重視した目でマトリックスの完成を再検討します。
これらの低ランク問題を、投影行列の非凸集合に対する凸問題として再定式化し、それらを証明可能な最適性まで解く選言的分枝限定スキームを実装します。
さらに、低ランク行列をランク 1 行列の合計として分解し、各ランク 1 行列の 2 行 2 列のマイナーが行列式 0 を持つようにインセンティブを与えることにより、新規で多くの場合緊密な凸緩和クラスを導出します。
数値実験では、新しい凸緩和により、既存の試みと比較して最適性ギャップが 2 桁減少し、選言的分枝限定スキームにより、nxn ランク r 行列の完成問題が数時間で解決され、n<=150 および r<=5。

要約(オリジナル)

Low-rank matrix completion consists of computing a matrix of minimal complexity that recovers a given set of observations as accurately as possible. Unfortunately, existing methods for matrix completion are heuristics that, while highly scalable and often identifying high-quality solutions, do not possess any optimality guarantees. We reexamine matrix completion with an optimality-oriented eye. We reformulate these low-rank problems as convex problems over the non-convex set of projection matrices and implement a disjunctive branch-and-bound scheme that solves them to certifiable optimality. Further, we derive a novel and often tight class of convex relaxations by decomposing a low-rank matrix as a sum of rank-one matrices and incentivizing that two-by-two minors in each rank-one matrix have determinant zero. In numerical experiments, our new convex relaxations decrease the optimality gap by two orders of magnitude compared to existing attempts, and our disjunctive branch-and-bound scheme solves nxn rank-r matrix completion problems to certifiable optimality in hours for n<=150 and r<=5.

arxiv情報

著者 Dimitris Bertsimas,Ryan Cory-Wright,Sean Lo,Jean Pauphilet
発行日 2024-01-26 17:34:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC, stat.ML パーマリンク