要約
ロバストテンソル主成分分析 (RTPCA) は、多次元データから低ランク成分とスパース成分を分離することを目的としており、信号処理およびコンピューター ビジョンの分野では不可欠な技術となっています。
最近登場したテンソル特異値分解 (t-SVD) は、従来の行列 SVD と比較してテンソルの低ランク構造をより適切に捕捉できるため、かなりの注目を集めています。
ただし、既存の手法は多くの場合、計算コストのかかるテンソル核ノルム (TNN) に依存しているため、現実世界のテンソルに対するスケーラビリティが制限されます。
この問題に対処するために、我々は初めて t-SVD フレームワーク内で効率的なスケール勾配降下法 (SGD) アプローチを探索し、RTPCA-SGD 法を提案します。
理論的には、穏やかな仮定の下で RTPCA-SGD の回復保証を厳密に確立し、適切なパラメーターを選択すると、条件数に関係なく、一定のレートで真の低ランク テンソルへの線形収束が達成されることを実証します。
その実用性を高めるために、効果的なパラメータ学習を可能にする学習可能な自己教師ありの深展開モデルをさらに提案します。
合成データセットと現実世界のデータセットの両方に対する数値実験では、競合する計算効率を維持しながら、特に RTPCA-TNN よりも所要時間が短い、提案された方法の優れたパフォーマンスが実証されています。
要約(オリジナル)
Robust tensor principal component analysis (RTPCA) aims to separate the low-rank and sparse components from multi-dimensional data, making it an essential technique in the signal processing and computer vision fields. Recently emerging tensor singular value decomposition (t-SVD) has gained considerable attention for its ability to better capture the low-rank structure of tensors compared to traditional matrix SVD. However, existing methods often rely on the computationally expensive tensor nuclear norm (TNN), which limits their scalability for real-world tensors. To address this issue, we explore an efficient scaled gradient descent (SGD) approach within the t-SVD framework for the first time, and propose the RTPCA-SGD method. Theoretically, we rigorously establish the recovery guarantees of RTPCA-SGD under mild assumptions, demonstrating that with appropriate parameter selection, it achieves linear convergence to the true low-rank tensor at a constant rate, independent of the condition number. To enhance its practical applicability, we further propose a learnable self-supervised deep unfolding model, which enables effective parameter learning. Numerical experiments on both synthetic and real-world datasets demonstrate the superior performance of the proposed methods while maintaining competitive computational efficiency, especially consuming less time than RTPCA-TNN.
arxiv情報
著者 | Lanlan Feng,Ce Zhu,Yipeng Liu,Saiprasad Ravishankar,Longxiu Huang |
発行日 | 2025-01-08 15:25:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google