要約
低ランクマトリックス完了は、可能な限り正確に一連の観測セットを回復する最小限の複雑さのマトリックスを計算することで構成されています。
残念ながら、マトリックス完了の既存の方法はヒューリスティックであり、高度にスケーラブルで高品質のソリューションを識別しますが、最適性の保証はありません。
最適性指向の目でマトリックスの完了を再検討します。
低ランクマトリックス完了の問題を、投影マトリックスの非凸セットに凸型の問題として再定式化し、それらを実証可能な最適性に解決する分岐枝とバウンドスキームを実装します。
さらに、低ランクのマトリックスをランク1つのマトリックスの合計として分解し、各ランク1マトリックスの2回の未成年者が決定要因ゼロになることを奨励することにより、凸状の凸様式の弛緩クラスを導き出します。
数値実験では、新しい凸緩和緩和により、既存の試みと比較して最適性のギャップが2桁減少し、$ n \ times m $ rank-$ r $ matrix完了の問題を$ \ max \ {m、n \ leq 2500 $ $ r \ {m、n
さらに、トレーニングエラーのこの改善は、平均$ 2 \%$ – $ 50 \%$のテストセットエラーの改善につながります。
要約(オリジナル)
Low-rank matrix completion consists of computing a matrix of minimal complexity that recovers a given set of observations as accurately as possible. Unfortunately, existing methods for matrix completion are heuristics that, while highly scalable and often identifying high-quality solutions, do not possess any optimality guarantees. We reexamine matrix completion with an optimality-oriented eye. We reformulate low-rank matrix completion problems as convex problems over the non-convex set of projection matrices and implement a disjunctive branch-and-bound scheme that solves them to certifiable optimality. Further, we derive a novel and often near-exact class of convex relaxations by decomposing a low-rank matrix as a sum of rank-one matrices and incentivizing that two-by-two minors in each rank-one matrix have determinant zero. In numerical experiments, our new convex relaxations decrease the optimality gap by two orders of magnitude compared to existing attempts, and our disjunctive branch-and-bound scheme solves $n \times m$ rank-$r$ matrix completion problems to certifiable optimality or near optimality in hours for $\max \{m, n\} \leq 2500$ and $r \leq 5$. Moreover, this improvement in the training error translates into an average $2\%$–$50\%$ improvement in the test set error.
arxiv情報
著者 | Dimitris Bertsimas,Ryan Cory-Wright,Sean Lo,Jean Pauphilet |
発行日 | 2025-05-07 15:40:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google