Low-Tubal-Rank Tensor Recovery via Factorized Gradient Descent

要約

この論文では、少数の破損した線形測定値から、基礎となる低チューブランク構造を持つテンソルを復元する問題を検討します。
このような問題に取り組む従来のアプローチでは、テンソル特異値分解 (t-SVD) の計算が必要ですが、これは計算集約的なプロセスであり、大規模なテンソルを扱うのは非現実的です。
この課題に対処することを目的として、Burer-Monteiro (BM) 法に似た因数分解手順に基づいた、効率的かつ効果的な低卵管ランクのテンソル回復法を提案します。
正確に言えば、私たちの基本的なアプローチには、大きなテンソルを 2 つの小さな因子テンソルに分解し、その後因子化勾配降下法 (FGD) を通じて問題を解決することが含まれます。
この戦略により、t-SVD 計算の必要性がなくなり、計算コストとストレージ要件が削減されます。
当社は、ノイズのない状況とノイズのある状況の両方で FGD の収束を保証するための厳密な理論分析を提供します。
さらに、私たちの方法はテンソル卵管ランクの正確な推定を必要としないことは注目に値します。
卵管ランクがわずかに過大評価されている場合でも、私たちのアプローチは引き続き堅牢なパフォーマンスを示します。
他の一般的なものと比較して、私たちのアプローチが、より速い計算速度とより小さい収束誤差という点で、複数のシナリオで優れたパフォーマンスを示すことを実証するために、一連の実験が実行されました。

要約(オリジナル)

This paper considers the problem of recovering a tensor with an underlying low-tubal-rank structure from a small number of corrupted linear measurements. Traditional approaches tackling such a problem require the computation of tensor Singular Value Decomposition (t-SVD), that is a computationally intensive process, rendering them impractical for dealing with large-scale tensors. Aim to address this challenge, we propose an efficient and effective low-tubal-rank tensor recovery method based on a factorization procedure akin to the Burer-Monteiro (BM) method. Precisely, our fundamental approach involves decomposing a large tensor into two smaller factor tensors, followed by solving the problem through factorized gradient descent (FGD). This strategy eliminates the need for t-SVD computation, thereby reducing computational costs and storage requirements. We provide rigorous theoretical analysis to ensure the convergence of FGD under both noise-free and noisy situations. Additionally, it is worth noting that our method does not require the precise estimation of the tensor tubal-rank. Even in cases where the tubal-rank is slightly overestimated, our approach continues to demonstrate robust performance. A series of experiments have been carried out to demonstrate that, as compared to other popular ones, our approach exhibits superior performance in multiple scenarios, in terms of the faster computational speed and the smaller convergence error.

arxiv情報

著者 Zhiyu Liu,Zhi Han,Yandong Tang,Xi-Le Zhao,Yao Wang
発行日 2025-01-10 15:07:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC, stat.ML パーマリンク