要約
低ランク行列補完の基本的な問題、つまり、ランク $r$ 行列 $\mathbf{M} \in \mathbb{R}^{m \times n}$ を近似するための新しいフレームワークを提供します (ここで、
$m \ge n$) はランダムな観察から得られます。
まず、$\estimate mr$ サンプルからの $\mathbf{M}$ についてさらなる仮定を行わず、$\estimate mr^ を使用して、行と列の $99\%$ で $\mathbf{M}$ を完了するアルゴリズムを提供します。
時間は2ドル。
次に、$\mathbf{M}$ の行と列のスパンが追加の規則性プロパティを満たしていると仮定して、観測に関係する回帰問題の解を集約することによって、この部分的な完全性の保証を完全な行列完全性アルゴリズムに高める方法を示します。
$\mathbf{M}$ に一貫性のない行範囲と列範囲があるよく研究された設定では、私たちのアルゴリズムは $ の $mr^{2+o(1)}$ 観測値から $\mathbf{M}$ を高精度に完成させます。
mr^{3 + o(1)}$ 時間 (問題パラメータの対数因数を省略)、$\estimate mr^5$ サンプルと $\estimate mr を使用した以前の最先端の [JN15] を改良しました。
^7$ 時間。
私たちが導入した $\mathbf{M}$ の行と列のスパンに関する仮定 (これは高い確率でランダムな部分空間によって満たされます) の下で、サンプルの複雑さはほぼ情報理論的に最適な $mr^{1 + o(
1)}$ となり、ランタイムは $mr^{2 + o(1)}$ に向上しました。
私たちのランタイムには、ランク $r$ 分解 $\mathbf{U}\mathbf{V}^\top$ がサンプリングされた観測値と一致することを検証するために、最もよく知られているランタイムと一致するという魅力的な特性があります。
また、$\|\mathbf{N}\|_{F} \le \Delta$ を使用した $\mathbf{M} + \mathbf{N}$ からのランダムな観測を考慮して、$ を完成させるアルゴリズムの堅牢なバリアントも提供します。
ノイズレス設定と同じ実行時間での \mathbf{M}$ からフロベニウス ノルム距離 $\estimate r^{1.5}\Delta$ までの距離。
以前のノイジー行列補完アルゴリズム [CP10] では、$\estimate \sqrt{n}\Delta$ の距離しか保証されていませんでした。
要約(オリジナル)
We give a new framework for solving the fundamental problem of low-rank matrix completion, i.e., approximating a rank-$r$ matrix $\mathbf{M} \in \mathbb{R}^{m \times n}$ (where $m \ge n$) from random observations. First, we provide an algorithm which completes $\mathbf{M}$ on $99\%$ of rows and columns under no further assumptions on $\mathbf{M}$ from $\approx mr$ samples and using $\approx mr^2$ time. Then, assuming the row and column spans of $\mathbf{M}$ satisfy additional regularity properties, we show how to boost this partial completion guarantee to a full matrix completion algorithm by aggregating solutions to regression problems involving the observations. In the well-studied setting where $\mathbf{M}$ has incoherent row and column spans, our algorithms complete $\mathbf{M}$ to high precision from $mr^{2+o(1)}$ observations in $mr^{3 + o(1)}$ time (omitting logarithmic factors in problem parameters), improving upon the prior state-of-the-art [JN15] which used $\approx mr^5$ samples and $\approx mr^7$ time. Under an assumption on the row and column spans of $\mathbf{M}$ we introduce (which is satisfied by random subspaces with high probability), our sample complexity improves to an almost information-theoretically optimal $mr^{1 + o(1)}$, and our runtime improves to $mr^{2 + o(1)}$. Our runtimes have the appealing property of matching the best known runtime to verify that a rank-$r$ decomposition $\mathbf{U}\mathbf{V}^\top$ agrees with the sampled observations. We also provide robust variants of our algorithms that, given random observations from $\mathbf{M} + \mathbf{N}$ with $\|\mathbf{N}\|_{F} \le \Delta$, complete $\mathbf{M}$ to Frobenius norm distance $\approx r^{1.5}\Delta$ in the same runtimes as the noiseless setting. Prior noisy matrix completion algorithms [CP10] only guaranteed a distance of $\approx \sqrt{n}\Delta$.
arxiv情報
| 著者 | Jonathan A. Kelner,Jerry Li,Allen Liu,Aaron Sidford,Kevin Tian |
| 発行日 | 2023-08-07 15:24:49+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google