Fast and Provable Tensor Robust Principal Component Analysis via Scaled Gradient Descent

要約

ますます多くのデータ サイエンスおよび機械学習の問題がテンソルを使用した計算に依存しており、行列よりもデータの多方向の関係と相互作用をより適切に捉えています。
この重要な利点を利用する際の重要な課題は、テンソル データから有用な情報を抽出するための、計算効率が高く、証明可能で正しいアルゴリズムを開発することです。同時に、破損や悪条件に対しても堅牢です。
この論文では、タッカー分解の下で、スパース破損によって汚染された観測から低ランクのテンソルを回復することを目的としたテンソル ロバスト主成分分析 (RPCA) に取り組みます。
計算とメモリのフットプリントを最小限に抑えるために、調整されたスペクトルの初期化から始めて、スケーリングされた勾配降下 (ScaledGD) を介して低次元のテンソル係数を直接回復することを提案します。
腐敗の。
理論的には、提案されたアルゴリズムは、破損のレベルが大きすぎない限り、その条件数に依存しない一定の割合で真の低ランク テンソルに線形に収束することを確立します。
経験的に、提案されたアルゴリズムが、合成実験と実際のアプリケーションを通じて、最先端のマトリックスおよびテンソル RPCA アルゴリズムよりも優れたスケーラブルなパフォーマンスを実現することを実証します。

要約(オリジナル)

An increasing number of data science and machine learning problems rely on computation with tensors, which better capture the multi-way relationships and interactions of data than matrices. When tapping into this critical advantage, a key challenge is to develop computationally efficient and provably correct algorithms for extracting useful information from tensor data that are simultaneously robust to corruptions and ill-conditioning. This paper tackles tensor robust principal component analysis (RPCA), which aims to recover a low-rank tensor from its observations contaminated by sparse corruptions, under the Tucker decomposition. To minimize the computation and memory footprints, we propose to directly recover the low-dimensional tensor factors — starting from a tailored spectral initialization — via scaled gradient descent (ScaledGD), coupled with an iteration-varying thresholding operation to adaptively remove the impact of corruptions. Theoretically, we establish that the proposed algorithm converges linearly to the true low-rank tensor at a constant rate that is independent with its condition number, as long as the level of corruptions is not too large. Empirically, we demonstrate that the proposed algorithm achieves better and more scalable performance than state-of-the-art matrix and tensor RPCA algorithms through synthetic experiments and real-world applications.

arxiv情報

著者 Harry Dong,Tian Tong,Cong Ma,Yuejie Chi
発行日 2023-02-22 16:03:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP, math.OC, stat.ML パーマリンク