Outlier-aware Tensor Robust Principal Component Analysis with Self-guided Data Augmentation

要約

テンソル堅牢な主成分分析(TRPCA)は、多次元データを低ランクのテンソルと異常値のテンソルに分解するための基本的な手法ですが、まばらな異常値の仮定に依存する既存の方法は、構造化された腐敗の下でしばしば失敗します。
この論文では、適応的な重み付けを使用して異常値の影響を抑制する自己ガイド付きデータ増強アプローチを提案し、元のTRPCA問題を標準的なテンソル主成分分析(TPCA)問題に再定式化します。
提案されたモデルには、テンソル増強中の外れレイヤーの貢献を動的に識別し、ダウンウェイトする最適化駆動型の重み制度が含まれます。
結果として生じる最適化問題を解決し、計算効率を確保するために、閉じた形式の更新を備えた効率的な近位ブロック座標降下アルゴリズムを開発します。
理論的収束は、ブロック座標降下と大規模な最小化原理を組み合わせたフレームワークを通じて保証されます。
顔の回復、バックグラウンド減算、ハイパースペクトル除去など、合成および現実世界のデータセットに関する数値実験は、私たちの方法がさまざまな腐敗パターンを効果的に処理することを示しています。
結果は、最先端の方法と比較して、精度と計算効率の両方の改善を示しています。

要約(オリジナル)

Tensor Robust Principal Component Analysis (TRPCA) is a fundamental technique for decomposing multi-dimensional data into a low-rank tensor and an outlier tensor, yet existing methods relying on sparse outlier assumptions often fail under structured corruptions. In this paper, we propose a self-guided data augmentation approach that employs adaptive weighting to suppress outlier influence, reformulating the original TRPCA problem into a standard Tensor Principal Component Analysis (TPCA) problem. The proposed model involves an optimization-driven weighting scheme that dynamically identifies and downweights outlier contributions during tensor augmentation. We develop an efficient proximal block coordinate descent algorithm with closed-form updates to solve the resulting optimization problem, ensuring computational efficiency. Theoretical convergence is guaranteed through a framework combining block coordinate descent with majorization-minimization principles. Numerical experiments on synthetic and real-world datasets, including face recovery, background subtraction, and hyperspectral denoising, demonstrate that our method effectively handles various corruption patterns. The results show the improvements in both accuracy and computational efficiency compared to state-of-the-art methods.

arxiv情報

著者 Yangyang Xu,Kexin Li,Li Yang,You-Wei Wen
発行日 2025-04-25 13:03:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 15A69, 65K10, cs.CV, cs.LG, cs.NA, G.1.6, math.NA パーマリンク